- Tội phạm mạng đang sử dụng AI để thực hiện các cuộc tấn công có mục tiêu cao ở quy mô lớn, khiến mọi người vô tình gửi tiền và thông tin nhạy cảm hoặc tự mở ra cho hành vi trộm cắp.
- Tin tặc hiện có thể thuê các mô hình ngôn ngữ lớn AI tạo sinh được tạo ra trong cộng đồng tội phạm mạng ngầm để giúp xây dựng các vụ lừa đảo dựa trên văn bản.
- Một nhân viên IT ở Hồng Kông đã chuyển hơn 25 triệu USD cho tội phạm sau khi họ sử dụng deepfake để mạo danh giám đốc tài chính của công ty trong một cuộc gọi video.
- Các cuộc tấn công kỹ thuật xã hội được gọi là Business Email Compromise (BEC) đã tăng từ 1% tổng số mối đe dọa năm 2022 lên 18.6% năm 2023, tăng 1760%.
- Hơn một nửa (55%) các trường hợp mạo danh thương hiệu bao gồm chính thương hiệu của tổ chức vào năm 2023.
- Tội phạm mạng có thể tạo ra phần mềm độc hại đa hình (malware có nhiều biến thể) ở quy mô lớn bằng cách sử dụng AI và tự động hóa.
- Các công ty bảo mật như Mimecast có thể sử dụng AI để hiểu cảm xúc của thông điệp, tự động hóa quy trình phát hiện và ngăn chặn email lừa đảo đến hộp thư của người dùng.
- McAfee đang phát triển công cụ phát hiện AI có tên Project Mockingbird, tuyên bố có thể phát hiện và phơi bày âm thanh bị AI thay đổi trong video.
- Giáo dục công chúng vẫn là một phương pháp chủ động để ngăn chặn các mối đe dọa hoàn thành sứ mệnh của chúng.
- Các chuyên gia bảo mật mạng vẫn lạc quan vì "người bảo vệ có lợi thế mà kẻ tấn công không thể có được", đó là hiểu rõ tổ chức từ bên trong.
📌 Tội phạm mạng đang tận dụng AI để thực hiện các cuộc tấn công tinh vi hơn ở quy mô lớn hơn. Tuy nhiên, các công ty bảo mật cũng đang sử dụng AI để phát hiện và ngăn chặn hiệu quả hơn các mối đe dọa, cùng với nỗ lực nâng cao nhận thức của công chúng. Cuộc chiến này được ví như "mèo vờn chuột", nhưng phe bảo vệ đang có lợi thế nhờ hiểu rõ nội tình của tổ chức.
https://www.cnbc.com/2024/03/11/cybercrime-underworld-has-removed-all-the-guardrails-on-ai-frontier.html