Cẩn thận với "deepfake sexploitation": kẻ lừa đảo dùng AI tạo ảnh nóng giả để tống tiền

- Tại Singapore, ít nhất 4 người đàn ông đã trở thành nạn nhân của chiến dịch lừa đảo "deepfake sexploitation". 
- Kẻ lừa đảo sử dụng công nghệ AI để tạo ra hình ảnh khỏa thân giả mạo bằng cách ghép mặt nạn nhân vào cơ thể người khác.
- Các nạn nhân bị đe dọa phải chuyển khoản, nếu không hình ảnh sẽ bị phát tán trên mạng xã hội tới bạn bè, người thân.
- Hai nạn nhân bị tiếp cận qua ứng dụng hẹn hò OkCupid. Kẻ lừa đảo giả danh phụ nữ xinh đẹp để thu hút sự chú ý.
- Một nạn nhân khác bị lừa nhấp vào email lừa đảo, dẫn tới website quét khuôn mặt trước khi nhận được video khỏa thân giả.
- Cơ quan An ninh mạng Singapore (CSA) cảnh báo việc sử dụng công cụ AI tạo sinh ngày càng phổ biến khiến nguy cơ lừa đảo gia tăng.
- Các công ty còn cung cấp dịch vụ "Deepfakes-as-a-Service", cho phép khách hàng tạo nội dung deepfake chuyên nghiệp với một khoản phí.
- Nạn nhân được khuyến cáo không nên trả tiền cho kẻ lừa đảo vì điều đó không đảm bảo chúng sẽ dừng lại.
- Chuyên gia tâm lý cho biết nạn nhân thường lo lắng và trả tiền dù biết hình ảnh là giả vì sợ bị người khác đánh giá.

📌 Công nghệ AI tạo sinh đang bị lạm dụng để tạo ra hình ảnh khỏa thân giả nhằm tống tiền nạn nhân. Ít nhất 4 người đàn ông Singapore đã mất từ 700 đến 2.200 đô la vì mối đe dọa deepfake này. Cơ quan chức năng khuyến cáo không nên trả tiền và cần báo cáo vụ việc để ngăn chặn tội phạm.

https://www.straitstimes.com/singapore/courts-crime/scammers-using-deepfake-nude-images-to-demand-money-from-victims-in-singapore

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo