• OpenAI, công ty dẫn đầu trong cuộc đua phát triển AI thông minh ngang tầm con người, đang phải đối mặt với nhiều cáo buộc nghiêm trọng về vấn đề an toàn.
• Một báo cáo mới từ The Washington Post tiết lộ rằng OpenAI đã vội vã thông qua các bài kiểm tra an toàn và tổ chức tiệc mừng ra mắt sản phẩm trước khi đảm bảo tính an toàn của nó.
• Một nhân viên ẩn danh cho biết: "Họ lên kế hoạch tổ chức tiệc sau khi ra mắt trước khi biết liệu việc ra mắt có an toàn hay không. Chúng tôi về cơ bản đã thất bại trong quy trình."
• Gần đây, nhiều nhân viên hiện tại và cựu nhân viên của OpenAI đã ký một bức thư ngỏ yêu cầu công ty cải thiện quy trình an toàn và minh bạch.
• Đội ngũ an toàn của OpenAI đã bị giải thể sau khi đồng sáng lập Ilya Sutskever rời đi. Jan Leike, một nhà nghiên cứu chủ chốt, cũng từ chức không lâu sau đó.
• Leike cho rằng "văn hóa và quy trình an toàn đã bị xếp sau các sản phẩm hào nhoáng" tại công ty.
• An toàn là cốt lõi trong điều lệ của OpenAI, với cam kết hỗ trợ các tổ chức khác nâng cao an toàn nếu AGI được phát triển bởi đối thủ cạnh tranh.
• OpenAI giữ kín các mô hình độc quyền thay vì công khai vì lý do an toàn, nhưng những cảnh báo gần đây cho thấy an toàn đã bị hạ thấp ưu tiên.
• Một báo cáo do Bộ Ngoại giao Hoa Kỳ ủy quyền vào tháng 3 cảnh báo rằng sự phát triển AI tiên tiến hiện tại đặt ra những rủi ro cấp bách và ngày càng tăng đối với an ninh quốc gia.
• Sau vụ sa thải CEO Sam Altman năm ngoái, OpenAI đã cố gắng xoa dịu lo ngại bằng một số thông báo đúng lúc về an toàn.
• Công ty thông báo hợp tác với Phòng thí nghiệm Quốc gia Los Alamos để khám phá cách các mô hình AI tiên tiến có thể hỗ trợ an toàn trong nghiên cứu khoa học sinh học.
• OpenAI cũng tuyên bố đã tạo ra một thang đo nội bộ để theo dõi tiến độ các mô hình ngôn ngữ lớn đang tiến tới AGI.
• Tuy nhiên, nhiều người cho rằng những nỗ lực quan hệ công chúng này chưa đủ để bảo vệ xã hội khỏi các tác động tiềm tàng của AI.
• Chủ tịch FTC Lina Khan bày tỏ lo ngại rằng các đầu vào quan trọng của các công cụ AI hiện đang được kiểm soát bởi một số lượng tương đối nhỏ các công ty.
📌 OpenAI đang phải đối mặt với nhiều cáo buộc nghiêm trọng về vấn đề an toàn, từ việc vội vã thông qua các bài kiểm tra đến ưu tiên sản phẩm hơn quy trình. Điều này làm dấy lên lo ngại về khả năng của công ty trong việc phát triển AGI an toàn, đặc biệt khi OpenAI đang nắm giữ vai trò quan trọng trong lĩnh vực này.
https://www.theverge.com/2024/7/12/24197142/openai-safety-concerns-agi