- Retrieval augmented generation (RAG) là một phương pháp đang được ứng dụng rộng rãi tại Thung lũng Silicon nhằm cải thiện đầu ra của các mô hình ngôn ngữ lớn và giảm thiểu sự ảo giác của AI.
- RAG bổ sung thông tin cho các lời nhắc bằng cách thu thập dữ liệu từ một cơ sở dữ liệu tùy chỉnh, sau đó mô hình ngôn ngữ lớn tạo ra câu trả lời dựa trên dữ liệu đó.
- Ví dụ, một công ty có thể tải lên tất cả các chính sách nhân sự và phúc lợi vào cơ sở dữ liệu RAG, chatbot AI sẽ chỉ tập trung vào các câu trả lời có thể tìm thấy trong các tài liệu đó.
- RAG khác với đầu ra ChatGPT tiêu chuẩn ở chỗ nó sử dụng công cụ tìm kiếm để kéo các tài liệu thực tế và neo phản hồi của mô hình vào các tài liệu đó.
- Mức độ giảm ảo giác AI của RAG phụ thuộc vào chất lượng của việc triển khai RAG tổng thể và cách bạn định nghĩa ảo giác AI.
- Độ chính xác của nội dung trong cơ sở dữ liệu tùy chỉnh và chất lượng của việc tìm kiếm, truy xuất nội dung phù hợp dựa trên câu hỏi là rất quan trọng để có đầu ra tốt.
- Nghiên cứu của Đại học Stanford về các công cụ AI pháp lý dựa trên RAG phát hiện tỷ lệ sai sót trong đầu ra cao hơn so với các công ty xây dựng mô hình.
- Ảo giác trong hệ thống RAG xoay quanh việc đầu ra có nhất quán với những gì được tìm thấy bởi mô hình trong quá trình truy xuất dữ liệu hay không, và liệu đầu ra có được đánh giá dựa trên dữ liệu được cung cấp cũng như đúng về mặt thực tế hay không.
- Luật pháp là một lĩnh vực có nhiều hoạt động xung quanh các công cụ AI dựa trên RAG, nhưng tiềm năng của quy trình này không chỉ giới hạn trong một công việc cổ trắng duy nhất.
- Người dùng cần hiểu rõ những hạn chế của các công cụ này và các công ty tập trung vào AI cần tránh hứa hẹn quá mức về độ chính xác của câu trả lời. Bất kỳ ai sử dụng công cụ AI cũng nên tránh hoàn toàn tin tưởng vào đầu ra.
📌 RAG là một phương pháp triển vọng giúp giảm ảo giác AI, cải thiện độ chính xác của chatbot và giúp doanh nghiệp khai thác dữ liệu nội bộ. Tuy nhiên, sự cẩn trọng và đánh giá của con người vẫn đóng vai trò quan trọng, vì ảo giác AI chưa thể bị loại bỏ hoàn toàn và các công cụ AI vẫn có thể mắc sai lầm ngay cả khi được cải thiện bởi RAG.
https://www.wired.com/story/reduce-ai-hallucinations-with-rag/