- Tuần trước, Thượng nghị sĩ bang California Scott Wiener (D-San Francisco) đã giới thiệu một dự luật AI mới nhằm "thiết lập các tiêu chuẩn an toàn rõ ràng, dễ dự đoán, mang tính thực tiễn cho các nhà phát triển hệ thống AI lớn và mạnh mẽ."
- Dự luật này được viết một cách thông minh, sắc sảo về chính trị, tập trung hẹp vào các công ty xây dựng các mô hình quy mô lớn và khả năng những nỗ lực khổng lồ này có thể gây ra thiệt hại hàng loạt.
- California có thể cung cấp một mô hình cho quy định quốc gia, dự kiến sẽ mất nhiều thời gian hơn. Dù dự luật của Wiener có được thông qua ở quốc hội bang trong hình thức hiện tại hay không, sự tồn tại của nó phản ánh việc các chính trị gia bắt đầu nghiêm túc với các nhà lãnh đạo công nghệ.
- Dự luật California được phát triển với sự tham vấn đáng kể từ các nhà khoa học AI hàng đầu và được công bố với sự ủng hộ từ các nhà nghiên cứu AI hàng đầu, các nhà lãnh đạo ngành công nghiệp công nghệ, và những người ủng hộ AI có trách nhiệm.
- Yoshua Bengio, một trong những người đỡ đầu của AI hiện đại và là nhà nghiên cứu AI hàng đầu, đã nói về dự luật đề xuất: "Các hệ thống AI vượt qua một mức độ năng lực nhất định có thể đặt ra những rủi ro có ý nghĩa đối với dân chủ và an toàn công cộng."
📌 Dự luật mới của California về an toàn AI, được giới thiệu bởi Thượng nghị sĩ Scott Wiener, nhấn mạnh việc thiết lập các tiêu chuẩn an toàn cho các hệ thống AI lớn và mạnh mẽ. Điều này không chỉ thể hiện sự nghiêm túc của các chính trị gia đối với ngành công nghiệp công nghệ mà còn phản ánh sự đồng thuận giữa các nhà khoa học AI, lãnh đạo công nghiệp, và những người ủng hộ AI có trách nhiệm. Sự tham vấn từ các chuyên gia hàng đầu và sự ủng hộ rộng rãi cho thấy dự luật này có thể là bước tiến quan trọng trong việc định hình chính sách an toàn AI, không chỉ ở California mà còn có khả năng trở thành mô hình cho quy định quốc gia.
Citations:
[1] https://www.vox.com/future-perfect/2024/2/16/24074360/artificial-intelligence-california-regulation-openai-google-chatgpt-existential-risk