• Một năm trước, vào ngày 21/7/2023, 7 công ty AI hàng đầu (Amazon, Anthropic, Google, Inflection, Meta, Microsoft và OpenAI) đã cam kết với Nhà Trắng 8 điểm về phát triển AI an toàn và đáng tin cậy.
• Các cam kết bao gồm cải thiện kiểm tra và minh bạch hệ thống AI, chia sẻ thông tin về rủi ro tiềm ẩn.
• Sau 1 năm, ngành công nghệ đã có một số tiến bộ đáng kể, nhưng vẫn còn nhiều hạn chế.
• Các công ty đã tăng cường thực hiện các biện pháp kỹ thuật như red-teaming (con người thử nghiệm mô hình AI để tìm lỗi) và thủy vân cho nội dung do AI tạo ra.
• Tuy nhiên, chưa rõ những cam kết này đã thay đổi gì và liệu các công ty có thực hiện các biện pháp này nếu không có cam kết hay không.
• Các chuyên gia cho rằng cần có luật liên bang toàn diện về AI, thay vì chỉ dựa vào cam kết tự nguyện.
• Về kiểm tra an ninh, các công ty đều nói đã thực hiện red-teaming với cả chuyên gia nội bộ và bên ngoài. OpenAI có đội ngũ riêng kiểm tra các mối đe dọa an ninh mạng, hóa học, sinh học, phóng xạ và hạt nhân.
• Về chia sẻ thông tin, các công ty đã thành lập Diễn đàn Mô hình Tiên tiến và tham gia các sáng kiến như Liên minh AI An toàn của NIST.
• Về bảo mật, nhiều công ty đã triển khai các biện pháp mới như mã hóa trọng số mô hình, kiểm soát truy cập chặt chẽ.
• Về phát hiện lỗ hổng, nhiều công ty đã triển khai chương trình thưởng lỗi cho hệ thống AI.
• Về thủy vân, hầu hết công ty đã phát triển công cụ thủy vân cho nội dung do AI tạo ra.
• Về báo cáo công khai, các công ty đã công bố thẻ mô hình (model cards) mô tả khả năng và hạn chế của hệ thống AI.
• Về nghiên cứu rủi ro xã hội, các công ty đã đầu tư nhiều vào lĩnh vực này.
• Về ứng dụng AI giải quyết thách thức xã hội, đã có một số tiến bộ trong y tế, khí hậu, toán học.
📌 Sau 1 năm cam kết, các công ty AI đã có tiến bộ về red-teaming, thủy vân và chia sẻ thông tin. Tuy nhiên, vẫn thiếu minh bạch và trách nhiệm giải trình đáng kể. Cần luật liên bang toàn diện thay vì chỉ dựa vào cam kết tự nguyện.
companies-promised-the-white-house-to-self-regulate-one-year-ago-whats-changed/
#MIT