- Theo Ernie Bot, chatbot đầu tiên của Trung Quốc, phụ nữ và đàn ông đóng vai trò khác nhau trong xã hội. Khi được yêu cầu tạo hình ảnh về y tá chăm sóc người già, chatbot hiển thị một phụ nữ. Nhưng khi được yêu cầu mô tả giáo sư dạy toán hoặc sếp quở trách nhân viên, các nhân vật này lại là nam giới.
- Vấn đề thiên vị giới tính trong các mô hình AI đã được các nhà nghiên cứu và chuyên gia công nghiệp Trung Quốc ghi nhận từ lâu. Tại một diễn đàn ở Ninh Ba, các học giả và nhà phát triển AI đã thảo luận về vấn đề này, kêu gọi dữ liệu cân bằng hơn, thiết kế tốt hơn và quyền bình đẳng trong thế giới thực.
- Theo các chuyên gia, thiên vị giới tính trong nội dung do AI tạo ra (AIGC) xuất phát từ việc huấn luyện mô hình AI bằng dữ liệu có sẵn định kiến như vai trò giới tính cố định hoặc mô tả phân biệt đối xử. Ngoài ra, thiên vị cũng có thể đến từ dữ liệu mất cân bằng, giới tính của nhân vật trong tệp kỹ thuật số hoặc do các nhà phát triển AI định hình.
- Một báo cáo năm 2021 cho thấy mạng xã hội, công cụ tìm kiếm, nền tảng tuyển dụng trực tuyến và quảng cáo của Trung Quốc thể hiện nhiều định kiến giới. Ví dụ, khi tìm kiếm "phụ nữ", kết quả chủ yếu liên quan đến tình dục và phụ nữ thường bị khách quan hóa trong quảng cáo.
- Định kiến giới trong xã hội được AIGC tiếp thu sẽ ảnh hưởng đến người dùng và gây ra một loạt vấn đề kỹ thuật và xã hội. Trong thực tế, điều này có thể ảnh hưởng đến cuộc sống của người bình thường như phụ nữ bị loại trong quá trình tuyển dụng sử dụng AI hoặc bị đánh giá thấp khi xin vay.
- Để giải quyết vấn đề, các nhà phát triển có thể sử dụng dữ liệu cân bằng hơn để huấn luyện AI hoặc thay đổi thiết kế mô hình. Về mặt xã hội, chính sách nên tạo môi trường bình đẳng cho phụ nữ và khuyến khích sự tham gia của nữ giới. Chính phủ Trung Quốc trước đây đã kêu gọi loại bỏ thiên vị trong các mô hình AI.
- Tuy nhiên trên thực tế, ít công ty có quy trình tương ứng hoặc thuê chuyên gia để thay đổi thiết kế mô hình ngay từ đầu. Việc cải thiện các mô hình AI sẽ diễn ra dần dần. AI phản ánh các vấn đề hiện có trong xã hội, vì vậy để loại bỏ phân biệt đối xử trong mô hình AI, chúng ta cũng nên xóa bỏ phân biệt đối xử trong thế giới thực trước.
📌 Các mô hình AI của Trung Quốc thể hiện sự thiên vị giới tính rõ rệt do sử dụng dữ liệu huấn luyện mang định kiến từ xã hội. Để giải quyết vấn đề, cần có dữ liệu cân bằng hơn, thiết kế thuật toán tốt hơn và thúc đẩy bình đẳng giới. Tuy nhiên, tiến trình cải thiện sẽ diễn ra từ từ và song song với việc xóa bỏ phân biệt đối xử trong thực tế.
https://www.scmp.com/news/china/politics/article/3265824/chinas-ai-bots-show-gender-bias-developers-point-flawed-real-life-model