1. Các công ty công nghệ cam kết công bố khung an toàn cho mô hình AI tiên phong
- 16 công ty công nghệ toàn cầu cam kết công bố khung an toàn cho các mô hình AI tiên phong của họ, xác định ngưỡng rủi ro không thể chấp nhận được.
- Tuy nhiên, một số chuyên gia cho rằng các quy định tự nguyện này chưa đủ mạnh.
2. Các quốc gia thành lập mạng lưới Viện An toàn AI quốc tế
- 10 quốc gia và EU đồng ý hợp tác nghiên cứu về an toàn AI bằng cách thành lập mạng lưới các Viện An toàn AI quốc tế.
- Mạng lưới này sẽ chia sẻ thông tin về các mô hình AI, hạn chế, khả năng, rủi ro và sự cố an toàn, cũng như thực hành tốt nhất về an toàn AI.
3. EU và 27 quốc gia hợp tác xây dựng ngưỡng rủi ro cho AI tiên phong
- 27 quốc gia và EU nhất trí hợp tác xây dựng ngưỡng rủi ro cho các hệ thống AI tiên phong có thể hỗ trợ chế tạo vũ khí sinh học, hóa học.
- Các quốc gia sẽ phát triển đề xuất ngưỡng rủi ro với sự tham gia của các công ty AI, xã hội dân sự và giới học thuật.
4. Chính phủ Anh tài trợ nghiên cứu giảm thiểu rủi ro xã hội từ AI
- Chính phủ Anh tài trợ tới 8,5 triệu bảng cho các dự án nghiên cứu giảm thiểu rủi ro AI như deepfake, tấn công mạng.
- Các dự án tập trung vào "an toàn AI hệ thống", can thiệp ở cấp độ xã hội mà các hệ thống AI hoạt động.
📌 Hội nghị thượng đỉnh AI Seoul đánh dấu bước tiến quan trọng trong hợp tác toàn cầu về an toàn AI với cam kết từ 16 công ty công nghệ hàng đầu, thành lập mạng lưới Viện An toàn AI của 10 quốc gia và EU, thỏa thuận xây dựng ngưỡng rủi ro AI của 27 quốc gia. Anh cũng tài trợ 8,5 triệu bảng cho nghiên cứu giảm thiểu rủi ro xã hội từ AI.
Citations:
[1] https://www.techrepublic.com/article/ai-seoul-summit-takeaways/