EU chính thức cấm các hệ thống AI có “rủi ro không thể chấp nhận được” theo luật AI
- Từ ngày 2/2/2025, EU chính thức cấm các hệ thống AI có rủi ro không thể chấp nhận được, theo quy định của Đạo luật AI (AI Act).
- AI Act phân loại rủi ro AI thành 4 cấp độ:
- Rủi ro tối thiểu (Minimal risk): Không chịu sự giám sát (ví dụ: bộ lọc thư rác).
- Rủi ro hạn chế (Limited risk): Được giám sát nhẹ (ví dụ: chatbot CSKH).
- Rủi ro cao (High risk): Bị giám sát chặt chẽ (ví dụ: AI trong chăm sóc sức khỏe).
- Rủi ro không thể chấp nhận được (Unacceptable risk): Bị cấm hoàn toàn.
- Các hệ thống AI bị cấm theo điều khoản 5 của AI Act:
- AI đánh giá xã hội (social scoring) dựa trên hành vi cá nhân.
- AI thao túng tiềm thức hoặc lừa đảo tâm lý người dùng.
- AI lợi dụng điểm yếu của người dùng (ví dụ: trẻ em, người khuyết tật, người nghèo).
- AI dự đoán tội phạm dựa trên ngoại hình.
- AI sử dụng dữ liệu sinh trắc học để suy luận về đặc điểm cá nhân (ví dụ: xu hướng tình dục).
- AI thu thập dữ liệu sinh trắc học thời gian thực tại nơi công cộng cho mục đích thực thi pháp luật.
- AI phân tích cảm xúc tại nơi làm việc và trường học.
- AI xây dựng hoặc mở rộng cơ sở dữ liệu nhận diện khuôn mặt bằng cách thu thập ảnh trực tuyến hoặc từ camera an ninh.
- Hình phạt cho doanh nghiệp vi phạm:
- Mức phạt lên đến 35 triệu EUR (~36 triệu USD) hoặc 7% doanh thu hàng năm, tùy theo mức nào cao hơn.
- Áp dụng cho cả công ty không đặt trụ sở tại EU nhưng hoạt động trong khu vực này.
- Lộ trình thực thi AI Act:
- 2/2/2025: Các công ty phải tuân thủ quy định, nhưng mức phạt chưa có hiệu lực ngay.
- 8/2025: Các cơ quan có thẩm quyền sẽ bắt đầu thực thi quy định và áp dụng hình phạt.
- Sự tham gia và phản ứng của doanh nghiệp:
- Hơn 100 công ty đã ký “EU AI Pact”, cam kết tuân thủ AI Act trước thời hạn, bao gồm Amazon, Google và OpenAI.
- Meta, Apple và Mistral không tham gia, dù điều này không có nghĩa là họ sẽ vi phạm luật.
- Một số ngoại lệ được chấp thuận:
- Cảnh sát có thể sử dụng AI thu thập dữ liệu sinh trắc học tại nơi công cộng nếu được cơ quan có thẩm quyền cho phép và phục vụ điều tra cụ thể (ví dụ: tìm kiếm nạn nhân bị bắt cóc).
- AI nhận diện cảm xúc tại nơi làm việc hoặc trường học có thể được sử dụng trong các trường hợp y tế hoặc an toàn đặc biệt.
- Vấn đề thực thi và xung đột với các luật khác:
- AI Act sẽ tương tác với các quy định hiện có như GDPR, NIS2 và DORA, gây ra một số thách thức về quản lý và báo cáo sự cố.
- Ủy ban châu Âu sẽ công bố hướng dẫn chi tiết vào năm 2025 để làm rõ quy định và các tiêu chuẩn tuân thủ.
📌 Từ ngày 2/2/2025, EU bắt đầu thực thi lệnh cấm đối với các hệ thống AI có rủi ro không thể chấp nhận được, bao gồm AI giám sát, thao túng, nhận diện cảm xúc và phân tích sinh trắc học không được phép. Mức phạt có thể lên đến 35 triệu EUR hoặc 7% doanh thu, áp dụng cho cả công ty ngoài EU. Dù một số tập đoàn lớn đã cam kết tuân thủ, vẫn còn nhiều câu hỏi về khả năng thực thi và tác động của AI Act đối với ngành công nghệ.
https://techcrunch.com/2025/02/02/ai-systems-with-unacceptable-risk-are-now-banned-in-the-eu/