Tạp chí Nature: các LLM như GPT-4 có định kiến ngôn ngữ nghiêm trọng đối với tiếng Anh của người Mỹ gốc Phi

• Một nghiên cứu mới được công bố trên tạp chí Nature cho thấy các mô hình ngôn ngữ lớn (LLM) như GPT-4 có định kiến ngôn ngữ nghiêm trọng đối với tiếng Anh của người Mỹ gốc Phi (AAE), ngay cả khi chúng được huấn luyện để không liên kết các định kiến tiêu cực với người da đen.

• Các nhà nghiên cứu đã sử dụng hơn 2.000 bài đăng mạng xã hội viết bằng AAE và ghép chúng với các phiên bản tương đương bằng tiếng Anh chuẩn của Mỹ. Họ đưa các văn bản này vào 5 LLM khác nhau cùng với danh sách 84 tính từ tích cực và tiêu cực.

• Kết quả cho thấy các mô hình liên kết mạnh mẽ các văn bản AAE với các tính từ tiêu cực như bẩn thỉu, ngu ngốc, thô lỗ, thiếu hiểu biết và lười biếng. Mức độ định kiến thậm chí còn cao hơn so với các nghiên cứu về con người từ thời kỳ trước phong trào dân quyền.

• Các LLM cũng liên kết người nói AAE với các công việc ít danh giá hơn như đầu bếp và bảo vệ thay vì kiến trúc sư hay phi hành gia.

• Trong các tình huống tòa án giả định, các mô hình có xu hướng kết tội và tuyên án tử hình đối với người nói AAE nhiều hơn so với người nói tiếng Anh chuẩn.

• Nghiên cứu cho thấy việc huấn luyện AI để loại bỏ phân biệt chủng tộc công khai không thể chống lại phân biệt chủng tộc tiềm ẩn trong định kiến ngôn ngữ.

• Các chuyên gia cảnh báo về nguy cơ sử dụng AI trong các quyết định xã hội quan trọng như tuyển dụng hay thi hành pháp luật.

• Đáng lo ngại là các mô hình lớn hơn, vốn được cho là ít định kiến công khai hơn, lại có định kiến ngôn ngữ tệ hơn.

• Các biện pháp giải quyết phân biệt chủng tộc công khai có thể tạo ra "cảm giác an toàn sai lầm" bằng cách giải quyết các định kiến rõ ràng trong khi vẫn chứa các định kiến tiềm ẩn.

• Các chuyên gia kết luận rằng AI chưa thể được tin tưởng là khách quan trong việc ra quyết định xã hội, do dữ liệu huấn luyện vốn đã bị ảnh hưởng bởi định kiến.

📌 Nghiên cứu mới trên Nature cho thấy AI có định kiến ngôn ngữ nghiêm trọng với tiếng Anh của người Mỹ gốc Phi, liên kết họ với tính từ tiêu cực và công việc ít danh giá hơn. Kết quả cảnh báo về việc sử dụng AI trong các quyết định xã hội quan trọng như tuyển dụng hay thi hành pháp luật.

https://www.science.org/content/article/ai-makes-racist-decisions-based-dialect

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo