Meta có thể ngừng phát triển AI nếu rủi ro quá cao

  • Meta CEO Mark Zuckerberg cam kết sẽ công khai AI tổng quát (AGI) trong tương lai, nhưng một tài liệu mới của công ty cho thấy có những trường hợp AI không được phát hành do rủi ro quá cao.
  • Meta đặt ra Frontier AI Framework, chia hệ thống AI thành 2 loại rủi ro chính:
    • Hệ thống rủi ro cao (high-risk): Có thể giúp thực hiện các cuộc tấn công mạng hoặc sinh học dễ dàng hơn nhưng không đảm bảo thành công.
    • Hệ thống rủi ro nghiêm trọng (critical-risk): Có thể dẫn đến hậu quả thảm khốc không thể kiểm soát trong bối cảnh triển khai.
  • Ví dụ về nguy cơ bao gồm:
    • Xâm nhập hoàn toàn vào hệ thống bảo mật doanh nghiệp dù đã áp dụng các biện pháp phòng thủ tốt nhất.
    • Hỗ trợ phát triển và phổ biến vũ khí sinh học có ảnh hưởng lớn.
  • Đánh giá rủi ro AI của Meta không dựa trên một thử nghiệm định lượng cụ thể mà được xác định bởi nhóm nghiên cứu nội bộ và bên ngoài, cùng với đánh giá của các lãnh đạo cấp cao.
  • Nếu hệ thống AI thuộc nhóm rủi ro cao, Meta sẽ hạn chế quyền truy cập nội bộ và không phát hành công khai cho đến khi có biện pháp giảm thiểu rủi ro xuống mức trung bình.
  • Nếu hệ thống rủi ro nghiêm trọng, Meta sẽ thực hiện các biện pháp bảo mật đặc biệt để tránh bị rò rỉ và có thể dừng phát triển hoàn toàn cho đến khi có giải pháp an toàn hơn.
  • Frontier AI Framework dự kiến sẽ thay đổi theo bối cảnh phát triển AI và được công bố trước hội nghị France AI Action Summit tháng này.
  • Đây có thể là phản ứng trước những chỉ trích về cách Meta theo đuổi chiến lược AI "mở" - không hoàn toàn nguồn mở, nhưng dễ tiếp cận hơn so với các công ty như OpenAI.
  • AI của Meta, đặc biệt là dòng mô hình Llama, đã được tải xuống hàng trăm triệu lần, mang lại lợi ích nhưng cũng bị lợi dụng bởi các thế lực đối địch, ví dụ như để tạo chatbot quân sự.
  • Động thái này có thể là sự khác biệt so với công ty Trung Quốc DeepSeek, công ty cũng cung cấp AI mở nhưng không có cơ chế kiểm soát nội dung độc hại.
  • Meta khẳng định mục tiêu là cân bằng giữa lợi ích của AI và rủi ro tiềm ẩn, đảm bảo công nghệ này được sử dụng một cách có trách nhiệm.

📌 

Meta đang có sự điều chỉnh lớn trong chiến lược AI với Frontier AI Framework, đặc biệt là phân loại và kiểm soát hệ thống AI có rủi ro cao. Động thái này có thể giúp Meta đối phó với áp lực từ chính phủ và cộng đồng về các rủi ro AI. Với việc dòng mô hình Llama có sức lan tỏa mạnh mẽ, Meta cần thận trọng hơn để tránh bị lợi dụng vào mục đích nguy hiểm. Đây cũng có thể là lời cảnh báo cho các công ty AI khác như DeepSeek về trách nhiệm trong việc phát triển công nghệ mạnh mẽ này. 🚀

https://techcrunch.com/2025/02/03/meta-says-it-may-stop-development-of-ai-systems-it-deems-too-risky/

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo