Thứ sáu, 25/07/2025
logo
Góc nhìn

Hiểm họa deepfake, lừa đảo bằng AI: Kịch bản nào cho tương lai?

Hiền Bùi Thứ năm, 24/07/2025, 07:36 (GMT+7)

Hiểm họa Deepfake, lừa đảo bằng Al đang bùng phát toàn cầu, làm mờ ranh giới thật – giả và đặt ra thách thức lớn về an ninh số, pháp lý và niềm tin xã hội.

Thủ đoạn dùng công nghệ Deepfake ghép ảnh nhạy cảm tống tiền, người dân cần biết

Cảnh giác với hình thức lừa đảo bằng công nghệ Deepfake giả làm người thân

Lừa đảo trực tuyến tăng gần 65% trong 6 tháng đầu năm 2023

Trong khi trí tuệ nhân tạo (AI) ngày càng chứng minh vai trò hỗ trợ đời sống và sản xuất, thì mặt trái của nó - đặc biệt là công nghệ deepfake, đang âm thầm tạo ra những mối đe dọa chưa từng có. Hiểm họa deepfake không còn là khái niệm xa lạ, mà đang dần len lỏi vào mọi lĩnh vực của đời sống. Lừa đảo bằng AI không còn là kịch bản viễn tưởng trong phim Hollywood, mà đã hiện hữu ở khắp nơi: từ giả mạo giọng nói lãnh đạo để chiếm đoạt tài sản, đến dàn dựng clip người nổi tiếng phát ngôn những điều chưa từng tồn tại. Vậy xã hội cần chuẩn bị gì trước một tương lai có nguy cơ bị thao túng bằng chính những thứ… không thật?

Deepfake – Khi giả thành thật chỉ trong vài giây

Công nghệ deepfake hoạt động dựa trên nền tảng AI và học sâu (deep learning). Chỉ cần vài đoạn video, một vài mẫu giọng nói, hệ thống có thể "học" và tạo ra bản sao hình ảnh, âm thanh gần như hoàn hảo, đánh lừa cả con người lẫn máy móc thông thường.

Điều đáng sợ là thời gian cần để huấn luyện các mô hình ngày càng rút ngắn, trong khi công cụ tạo deepfake lại trở nên phổ biến, dễ tiếp cận, thậm chí miễn phí. Chính sự dễ dãi trong việc tiếp cận này đang góp phần khiến hiểm họa deepfake lan rộng ngoài tầm kiểm soát.

Một trong những vụ việc điển hình là tại Hồng Kông, một công ty đa quốc gia đã bị lừa 25 triệu USD qua một cuộc họp video “CEO” – thực chất là bản dựng từ deepfake AI. Nhân viên bị lừa vì đoạn video quá giống thật, với hình ảnh và giọng nói của cấp trên được làm giả hoàn hảo. Vụ việc này đã được cảnh sát Hồng Kông xác nhận và truyền thông toàn cầu đưa tin rộng rãi, trở thành một minh chứng rõ nét cho hiểm họa deepfake trong môi trường doanh nghiệp.

Cái giá của niềm tin trong thời đại AI

Lừa đảo bằng deepfake AI đang phá vỡ nguyên tắc giao tiếp cơ bản nhất: niềm tin vào mắt thấy tai nghe. Không còn có thể tin chắc rằng đoạn video ai đó phát biểu là thật, hay cuộc gọi từ người thân là chính xác. Hiểm họa deepfake đang làm lung lay nền tảng của sự tin tưởng trong xã hội hiện đại.

Tại Mỹ, một phụ nữ tại Florida đã bị lừa 15.000 USD sau khi nhận được cuộc gọi AI giả giọng con gái đang “gặp tai nạn và cần tiền gấp”. Thậm chí, kẻ lừa đảo còn dùng giọng nói luật sư giả mạo để yêu cầu thêm tiền. Vụ việc được xác thực và gây rúng động dư luận Mỹ đầu năm 2024.

Tại châu Á, một số vụ việc giả mạo lãnh đạo doanh nghiệp để yêu cầu chuyển khoản đang khiến các công ty phải thay đổi quy trình xác minh giao dịch. Ở Việt Nam, Công an Lai Châu cảnh báo nhiều trường hợp bị gài bẫy deepfake qua hình ảnh, âm thanh nhạy cảm nhằm mục đích tống tiền – cho thấy hiểm họa deepfake không còn là khái niệm xa lạ, mà đang len lỏi vào từng ngóc ngách đời sống thực.

Deepfake không chỉ là công cụ lừa đảo

Ngoài mục đích trục lợi tài chính, hiểm họa deepfake còn bị khai thác để thao túng chính trị, phá hoại danh tiếng, lan truyền tin giả.

Một trường hợp điển hình là ở bang New Hampshire (Mỹ), nơi cử tri nhận được cuộc gọi robocall bằng giọng nói giả mạo Tổng thống Biden, kêu gọi… đừng đi bỏ phiếu. Dù chỉ là sản phẩm giả mạo, nhưng ảnh hưởng của nó là thật – gây rối loạn tâm lý cử tri và làm dấy lên lo ngại về khả năng can thiệp bầu cử qua AI – một hiểm họa deepfake mà nhiều nền dân chủ đang đối mặt.

Theo Wired, các chiến dịch deepfake đang ngày càng tinh vi hơn, sử dụng AI để dựng lời phát biểu, biểu cảm gương mặt, và thậm chí cả nét cảm xúc – tạo nên những đoạn clip khó phân biệt thật giả, kể cả với các phần mềm kiểm chứng thông thường.

Hoàn thiện khung pháp lý

Trước sự phát triển nhanh chóng của lừa đảo bằng AI, nhiều quốc gia đang bắt đầu điều chỉnh luật để kiểm soát công nghệ này.

Tại Mỹ, các bang như California và Texas đã cấm deepfake trong mục đích chính trị và khiêu dâm. Liên minh châu Âu đang hoàn thiện AI Act, một đạo luật phân loại rủi ro trong ứng dụng AI, từ thấp, trung bình đến rủi ro cao – trong đó deepfake là đối tượng giám sát đặc biệt.

Tại Việt Nam, các hành vi sử dụng deepfake để giả mạo, lừa đảo, xúc phạm danh dự... đang được xử lý chủ yếu dựa trên Bộ luật Hình sự, Luật An ninh mạng, và Nghị định 15/2020/NĐ-CP. Tùy tính chất và hậu quả, người vi phạm có thể bị phạt hành chính đến 30 triệu đồng, hoặc truy cứu hình sự theo Điều 174 (lừa đảo chiếm đoạt tài sản), Điều 288 (sử dụng trái phép dữ liệu mạng), hay Điều 155 (làm nhục người khác).

Hiện nay, Việt Nam chưa có luật chuyên biệt điều chỉnh các hành vi liên quan đến AI hoặc deepfake. Các hành vi lạm dụng công nghệ này chủ yếu được xử lý dựa trên các luật hiện hành như đã nêu ở trên.

Tuy vậy, hệ thống pháp lý đang từng bước được hoàn thiện để theo kịp tốc độ phát triển của công nghệ. Theo định hướng tại Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng AI đến năm 2030, các cơ quan đang phối hợp xây dựng cơ chế quản lý, giám sát nội dung tạo bởi trí tuệ nhân tạo, bao gồm cả việc nhận diện và ngăn chặn các sản phẩm deepfake độc hại.

Đáng chú ý, Luật Giao dịch điện tử (sửa đổi năm 2023) đã bắt đầu đưa vào khái niệm dữ liệu số, bản thể số và chữ ký số tự động – đặt nền móng pháp lý cho việc kiểm soát và xác thực thông tin trong môi trường số, trong đó có cả các sản phẩm do AI tạo ra.

Người dùng – Tuyến phòng thủ đầu tiên

Khi công nghệ deepfake ngày càng tinh vi, người dùng cần trở thành tuyến phòng thủ đầu tiên. Không chỉ đơn thuần là cảnh giác, mỗi cá nhân cần trang bị kỹ năng nhận diện thông tin giả: kiểm tra nguồn gốc video, so sánh hình ảnh gốc, hoặc sử dụng công cụ phân tích metadata.

Các chuyên gia an ninh mạng khuyến cáo: “Nếu bạn thấy một nội dung quá bất ngờ, gây sốc hoặc khó tin – hãy dừng lại, kiểm tra trước khi chia sẻ”.

Với xu hướng người dùng ngày càng lệ thuộc vào mạng xã hội, thói quen chia sẻ nhanh mà chưa kiểm chứng, từ đó có thể trở thành “vũ khí tiếp tay” cho các sản phẩm deepfake lan truyền nhanh chóng hơn cả virus thật.

Deepfake, lừa đảo bằng AI không còn là “nguy cơ tương lai” mà đã và đang trở thành vấn đề hiện hữu. Xã hội cần nhanh chóng thích nghi, từ việc xây dựng khung pháp lý vững chắc, đến giáo dục nhận thức cộng đồng và nâng cao năng lực phát hiện sai lệch.

Trong thế giới nơi sự thật có thể bị làm giả chỉ trong vài phút, chính sự tỉnh táo, hiểu biết và cảnh giác của người dùng sẽ là lá chắn mạnh mẽ nhất chống lại những mảng tối mà AI có thể tạo ra.

Đọc thêm

Đừng bỏ lỡ

Cùng chuyên mục