Microsoft chặn các thuật ngữ khiến AI tạo ra hình ảnh không phù hợp sau cáo buộc của kỹ sư nội bộ

- Microsoft đã chặn các thuật ngữ gây ra việc công cụ AI Microsoft Copilot Designer tạo ra hình ảnh bạo lực và tình dục.
- Một kỹ sư AI của Microsoft đã gửi thư tới FTC và hội đồng quản trị của Microsoft về một lỗ hổng bảo mật trong mô hình DALL-E 3 của OpenAI, cho phép người dùng bỏ qua các rào cản ngăn chặn việc tạo ra hình ảnh có hại.
- Theo Shane Jones, Copilot Designer có thể tạo ra hình ảnh phản cảm chứa "thiên vị chính trị, uống rượu và sử dụng ma túy ở trẻ vị thành niên, lạm dụng nhãn hiệu và bản quyền, các thuyết âm mưu và tôn giáo", và công cụ sẽ thêm phụ nữ "bị tình dục hóa" vào hình ảnh mà không được yêu cầu.
- Jones đã yêu cầu Microsoft đặt giới hạn độ tuổi cho công cụ và gỡ bỏ Copilot Designer khỏi sử dụng công khai cho đến khi có biện pháp bảo vệ tốt hơn, nhưng bị từ chối.
- Copilot hiện đã chặn việc sử dụng các thuật ngữ như "pro-choice", "four-twenty" và "pro-life". Việc cố gắng tạo hình ảnh bằng một trong các thuật ngữ bị chặn sẽ tạo ra thông báo lỗi.

📌 Microsoft đã chặn một số thuật ngữ nhạy cảm trên công cụ AI Copilot Designer sau khi một kỹ sư nội bộ cáo buộc công cụ này bỏ qua các rào cản an toàn, dẫn đến việc tạo ra hình ảnh bạo lực, tình dục và phản cảm khác. Công ty từ chối đặt giới hạn độ tuổi hay gỡ bỏ công cụ như đề xuất của kỹ sư này.

https://www.pcmag.com/news/microsoft-starts-blocking-some-terms-that-caused-its-ai-to-create-inappropriate

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo