- Dữ liệu độc hại trong học máy (ML) là một loại tấn công đối kháng nhằm làm thay đổi đáng kể và vĩnh viễn hành vi và kết quả của một mô hình bằng cách cố ý làm sai lệch dữ liệu.
- Việc phát hiện sớm có thể giúp tổ chức giữ lại nhiều tháng hoặc năm công sức mà họ có thể mất để khắc phục hậu quả của nguồn dữ liệu bị nhiễm độc.
- Tấn công dữ liệu độc hại có thể gây hại cho tương lai của AI, khiến mô hình đưa ra phản ứng không chính xác hoặc hành vi không mong muốn.
- Chỉ có 34% người dùng tin tưởng mạnh mẽ vào khả năng quản lý AI của các công ty công nghệ, điều này cho thấy sự suy giảm niềm tin của công chúng.
- Các biện pháp có thể được áp dụng để bảo vệ dữ liệu đào tạo, xác minh tính toàn vẹn của tập dữ liệu và theo dõi bất thường để giảm thiểu nguy cơ nhiễm độc, bao gồm việc làm sạch dữ liệu (data sanitization).
- Mặc dù việc phát hiện nhiễm độc tập dữ liệu ML có thể khó khăn, nhưng nỗ lực chủ động và phối hợp có thể giảm đáng kể khả năng các thao tác ảnh hưởng đến hiệu suất mô hình[1].
📌 Việc phát hiện dữ liệu độc hại trong tập dữ liệu học máy là một thách thức quan trọng, nhưng có thể thực hiện được thông qua các biện pháp chủ động như làm sạch dữ liệu. Tấn công dữ liệu độc hại có thể gây ra hậu quả nghiêm trọng, làm thay đổi hành vi và kết quả của mô hình ML. Với sự gia tăng của việc áp dụng AI, nguy cơ và tần suất của việc nhiễm độc dữ liệu cũng tăng lên, làm suy giảm niềm tin của công chúng vào công nghệ. Tuy nhiên, các tổ chức có thể giảm thiểu nguy cơ này và bảo vệ tính toàn vẹn của thuật toán thông qua việc xác minh và theo dõi tập dữ liệu một cách cẩn thận.