Thứ hai, 19/08/2024, 17:04 (GMT+7)

Thủ đoạn dùng công nghệ Deepfake ghép ảnh nhạy cảm tống tiền, người dân cần biết

Thời gian vừa qua, nhiều người dân đã phải làm đơn kêu cứu đến các cơ quan chức năng phản ánh về việc mình bị các đối tượng dùng công nghệ Deepfake ghép vào các hình ảnh, clip nhạy cảm với mục đích tống tiền. Trước tình trạng này, công an nhiều địa phương đã lên tiếng cảnh báo người dân.

Cắt ghép hình ảnh nhạy cảm để tống tiền

Mới đây, Công an TP HCM cũng liên tục tiếp nhận trình báo của nhiều nạn nhân cầu cứu về việc bị “công nghệ Deepfake” (công nghệ ứng dụng trí tuệ nhân tạo) ghép hình vào clip nhạy cảm, dọa gửi cho người thân quen của nạn nhân trên mạng nhằm mục đích tống tiền, theo Thương Trường.

Đơn cử, trường hợp anh N.H (TP Hồ Chí Minh) đến cơ quan Công an trình báo về việc bị một đối tượng trên mạng xã hội sao chép nhiều hình ảnh cá nhân từ trang Facebook và trang Zalo của mình. Đối tượng sử dụng công nghệ Deepfake AI để ghép clip hoặc hình ảnh nhạy cảm rồi đe dọa gửi cho bạn bè, người quen của anh H trên Facebook, Zalo và tống tiền 150 triệu đồng.

Trong đơn trình báo anh H cho biết, trước đó nhận được tin nhắn mời kết bạn từ tài khoản Facebook “Lê T Uyên”. Trong những lần nói chuyện, Uyên thường xuyên chia sẻ về hoàn cảnh gia đình. Cụ thể, theo lời Uyên, cha “cô” mắc bệnh ung thư nặng giai đoạn cuối, nằm điều trị ở bệnh viện, mẹ cũng đang bị bệnh ở quê, bản thân Uyên không đủ tiền lo cho cha mổ, không có tiền để cứu cha khỏi “lưỡi hái tử thần”. Hoàn cảnh khó khăn của Uyên đã làm anh H cảm động bởi cách nói chuyện rất chân thành, thiện tâm, hết lòng muốn cứu cha cô thoát chết.

Qua trao đổi, sau khi lấy được lòng tin của anh H, đối phương ngỏ ý xin số tài khoản Viber cá nhân của anh H. Từ đó, đối tượng dùng thủ đoạn kỹ thuật xâm nhập vào điện thoại của anh H để chiếm đoạt thêm thông tin khác ngoài số hình ảnh, clip mà anh H quay với các đối tác, bạn bè đã đăng trên Facebook.

Từ trang cá nhân trên Zalo, Facebook, đối tượng lấy được danh sách bạn bè, người quen của anh H và sử dụng công nghệ Deepfake AI để ghép thành những hình ảnh, clip nhạy cảm. Lúc này, đối tượng đe dọa sẽ gửi các clip, hình ảnh nhạy cảm đến danh sách người quen của anh H, buộc anh phải chuyển 150 triệu đồng để đổi lấy việc đối tượng không phát các clip, hình ảnh nhạy cảm đó. Do không có tiền để chuyển cho đối tượng, bị làm phiền nhiều lần nên anh H. quyết định trình báo vụ việc đến cơ quan công an.

Một trường hợp khác là anh H.V.K (trú tại quận Gò Vấp). Anh K. cũng từng có thời gian hoảng loạn vì bỗng dưng trở thành nạn nhân của công nghệ Deepfake. Cụ thể, vào một ngày, anh K. nhận được tấm ảnh gửi qua messenger (ứng dụng nhắn tin, gọi điện của Facebook), khi mở ra thì anh tá hỏa vì đó là tấm hình mình đang khỏa thân. Người gửi anh K. tấm ảnh này yêu cầu anh chuyển khoản 5 triệu đồng nếu không sẽ gửi hình ảnh này cho bạn bè của anh trên mạng xã hội.

Hiện nay, nhiều bác sĩ cũng trở thành nạn nhân của công nghệ này. Cụ thể, các đối tượng xấu giả làm bệnh nhân gọi video nhờ tư vấn khám bệnh để lấy hình ảnh các bác sĩ, sau đó cắt ghép thành những hình ảnh, video nhạy cảm tống tiền.

Hình ảnh 124
Lân la làm quen, sau đó các đối tượng sẽ rủ rê nạn nhân chat sex rồi ghép ảnh tống tiền.

Không hoảng sợ - Không làm theo yêu cầu chuyển tiền của đối tượng

Cơ quan chức năng khuyến cáo người dân khi gặp các trường hợp tương tự phải nâng cao tinh thần cảnh giác với phương châm “Không hoảng sợ - Không làm theo yêu cầu chuyển tiền của đối tượng”; đồng thời, phải liên hệ ngay với cơ quan Công an nơi gần nhất để cung cấp thông tin, phối hợp nhanh chóng điều tra, xử lý. Tuyệt đối không chia sẻ thông tin cá nhân lên MXH ở chế độ công khai, không truy cập vào các đường dẫn lạ (được gửi kèm trong tin nhắn hoặc email); luôn cẩn trọng khi tiếp nhận các cuộc gọi, tin nhắn từ những nguồn không quen biết, không rõ ràng.

Cùng với khuyến cáo người dân nâng cao cảnh giác, Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam cũng lưu ý về một số biện pháp phòng ngừa: Cẩn trọng với những yêu cầu kết bạn từ người lạ trên mạng xã hội; không chia sẻ thông tin cá nhân, hình ảnh, video riêng tư với người không quen biết; kiểm tra kỹ nguồn gốc thông tin, hình ảnh, video trước khi chia sẻ.

Ngoài ra, khi phát hiện các trường hợp nghi ngờ lừa đảo, tống tiền bằng Deepfake, người dân cần báo ngay cho cơ quan chức năng. Trường hợp người dân đã trở thành nạn nhân của hình thức lừa đảo, tống tiền bằng hình ảnh, video giả mạo được tạo ra từ việc sử dụng công nghệ Deepfake, Trung tâm xử lý tin giả, thông tin xấu độc Việt Nam khuyên người dân giữ lại tất cả bằng chứng liên quan như tin nhắn, email, hình ảnh, video...; không chuyển tiền cho kẻ tống tiền và liên hệ ngay với cơ quan Công an gần nhất để được hỗ trợ.

Việc sử dụng deepfake để lừa đảo và tống tiền là vô cùng nghiêm trọng. Nạn nhân không chỉ mất tiền mà còn có thể bị tổn hại về danh dự, uy tín. Các vụ việc này còn tạo ra sự hoang mang trong cộng đồng, làm mất lòng tin vào các nội dung trên mạng xã hội và các phương tiện truyền thông.

Cùng chuyên mục