Mistral và Cohere tung ra mô hình AI đỉnh cao: Không kiểm duyệt, đa ngôn ngữ, đe dọa các ông lớn

- Mistral, công ty nghiên cứu AI của Pháp, đã ra mắt bản nâng cấp lớn cho mô hình ngôn ngữ lớn nguồn mở Mistral 7B v0.3 mà không cần thông báo chính thức.


Mistral 7B v0.3 có một số cải tiến đáng chú ý:

- Không bị kiểm duyệt theo mặc định: Mô hình sẽ đưa ra cảnh báo khi được yêu cầu cung cấp thông tin nguy hiểm hoặc bất hợp pháp, nhưng vẫn cung cấp câu trả lời đầy đủ.

- Mở rộng kích thước ngữ cảnh token lên 32.768: Cho phép mô hình xử lý một phạm vi rộng hơn các từ và cụm từ trong ngữ cảnh, cải thiện hiệu suất trên các văn bản đa dạng. So sánh với Meta Llama có kích thước ngữ cảnh token 8K nhưng bộ từ vựng lớn hơn nhiều ở mức 128K.

- Tokenizer hiệu quả hơn: Phiên bản mới của bộ tokenizer Mistral cung cấp khả năng xử lý và hiểu văn bản tốt hơn.

- Tích hợp hàm số (function calling): Cho phép các mô hình Mistral tương tác với các hàm và API bên ngoài, tạo ra tính linh hoạt cao cho các tác vụ như tạo tác nhân, tìm kiếm thông tin trên web hoặc cơ sở dữ liệu chuyên biệt, viết báo cáo, lên ý tưởng - tất cả mà không cần gửi dữ liệu cá nhân đến các công ty tập trung như Google hay OpenAI.

Mistral không cung cấp các điểm chuẩn, nhưng với việc mở rộng đáng kể khả năng và tính năng tích hợp hàm số, phiên bản nâng cấp này là một bản phát hành hấp dẫn cho mô hình AI nguồn mở phổ biến thứ hai trên thị trường. Nó hứa hẹn cải thiện đáng kể hiệu suất so với phiên bản trước, có khả năng mạnh hơn tới 4 lần dựa trên dung lượng bộ từ vựng và kích thước ngữ cảnh token.

- Cohere, công ty AI của Canada, cũng ra mắt Aya 23, một dòng mô hình nguồn mở đa ngôn ngữ với khả năng hỗ trợ 23 ngôn ngữ, phục vụ gần một nửa dân số thế giới.
- Aya 23 vượt trội hơn phiên bản tiền nhiệm Aya 101 và các mô hình phổ biến khác như Mistral 7B v2 và Google Gemma trong các tác vụ phân biệt và tạo sinh.
- Aya 23 có hai phiên bản 8 tỷ và 35 tỷ tham số, trong đó bản 8 tỷ tối ưu cho phần cứng tiêu dùng và bản 35 tỷ cung cấp hiệu suất đỉnh cao trên nhiều tác vụ.
- Aya 23 được tinh chỉnh bằng một tập dữ liệu hướng dẫn đa ngôn ngữ đa dạng với 55,7 triệu mẫu từ 161 bộ dữ liệu, bao gồm các nguồn được chú thích bởi con người, dịch máy và tổng hợp.
- Trong các tác vụ tạo sinh như dịch thuật và tóm tắt, Aya 23 vượt trội hơn các đối thủ dựa trên nhiều tiêu chuẩn đánh giá như spBLEU và RougeL.

📌 Mistral 7B v0.3 và Cohere Aya 23 đánh dấu bước tiến mới trong cuộc đua AI nguồn mở với các tính năng đột phá như không kiểm duyệt, tích hợp hàm số và hỗ trợ đa ngôn ngữ. Hai mô hình này hứa hẹn sẽ là nền tảng mạnh mẽ cho các ứng dụng AI sáng tạo, cạnh tranh trực tiếp với các ông lớn như OpenAI và Meta.

https://decrypt.co/232299/mistral-ai-7b-upgrade-uncensored-cohere-aya-open-source

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo