Tại sao AI chatbot "ngại" thừa nhận không biết?

-  Các chatbot AI hiện đại thường đưa ra câu trả lời sai sự thật một cách tự tin, hiện tượng này được gọi là ảo giác AI

-  Khi được hỏi về thông tin cá nhân của nhà báo Ben Fritz, nhiều chatbot AI đã đưa ra những câu trả lời sai lệch về người vợ của ông

-  AI được thiết kế để đoán từ hoặc phần từ tiếp theo có khả năng xuất hiện cao nhất trong câu trả lời, làm cho toàn bộ quá trình trở thành "phỏng đoán có học thức"

-  Các nhà nghiên cứu đang thử nghiệm giải pháp tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài, cho phép AI tìm kiếm thông tin từ web hoặc tài liệu để bổ sung kiến thức

-  Roi Cohen và Konstantin Dobler từ Hasso Plattner Institut đề xuất giải pháp dạy AI nói "Tôi không biết" ngay từ giai đoạn đào tạo ban đầu

-  Công ty Anthropic đã áp dụng cách tiếp cận này với chatbot Claude, hướng dẫn AI cảnh báo người dùng khi câu trả lời có thể là ảo giác

-  Theo khảo sát của Pew Research Center, niềm tin của người Mỹ vào AI đang giảm sút: 52% lo ngại về AI trong năm 2023, tăng từ 37% năm 2021

-  Các chuyên gia cho rằng việc AI thừa nhận giới hạn của mình có thể giúp xây dựng lòng tin với người dùng

📌 Ảo giác AI là thách thức lớn nhất của chatbot hiện nay. Các nhà nghiên cứu đang phát triển nhiều giải pháp, từ tạo sinh được tăng cường bởi truy xuất dữ liệu ngoài đến việc huấn luyện AI thừa nhận "không biết". Niềm tin vào AI đang giảm sút với 52% người Mỹ lo ngại về công nghệ này trong năm 2023.

 

https://www.wsj.com/tech/ai/ai-halluciation-answers-i-dont-know-738bde07

#WSJ

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo