- Mô hình ngôn ngữ nhỏ (SLM) đang được các công ty ưa chuộng như một cách tiếp cận AI hiệu quả và tiết kiệm chi phí
- Microsoft vừa ra mắt Phi-4, một SLM vượt trội hơn các mô hình lớn hơn trong việc lập luận toán học và xử lý ngôn ngữ tự nhiên
- Các ví dụ về SLM hiện nay bao gồm: Llama, Phi, Mistral, Gemma và Granite
- SLM sử dụng ít tham số hơn nhiều so với mô hình lớn:
+ GPT-4 có hơn 175 tỷ tham số
+ SLM chỉ từ vài chục triệu đến dưới 30 tỷ tham số
- Ưu điểm chính của SLM:
+ Thời gian đào tạo và phản hồi nhanh hơn
+ Tiêu thụ năng lượng thấp hơn
+ Chi phí vận hành thấp
+ Hiệu suất tốt trong các tác vụ chuyên biệt
+ Tương thích với thiết bị biên
- SLM có thể giúp thu hẹp khoảng cách đa dạng ngôn ngữ trong AI:
+ Hiện tại chatbot AI chỉ được đào tạo khoảng 100 trong số hơn 7.000 ngôn ngữ trên thế giới
+ Meta đã phát hành Llama 3.2 1B và 3B với khả năng tạo văn bản đa ngôn ngữ
- Hạn chế của SLM:
+ Khả năng xử lý ngôn ngữ phức tạp còn hạn chế
+ Độ chính xác thấp hơn trong các tác vụ phức tạp
+ Hiệu suất bị giới hạn
+ Phạm vi hẹp do được đào tạo trên bộ dữ liệu nhỏ và chuyên biệt
📌 SLM đang định hình lại chiến lược AI doanh nghiệp với chi phí thấp hơn 70% so với mô hình lớn. Microsoft Phi-4 vượt trội trong lập luận toán học, trong khi Llama của Meta hỗ trợ đa ngôn ngữ. Xu hướng này cho thấy sự chuyển dịch từ thực nghiệm sang triển khai có mục đích.
https://www.weforum.org/stories/2025/01/ai-small-language-models/
#WEF