- Apple công bố nghiên cứu về mô hình AI mới có tên ReALM, cho biết nó có khả năng hiểu và xử lý ngữ cảnh tốt hơn GPT-4 của OpenAI.
- ReALM có thể hiểu và trả lời chính xác các câu hỏi liên quan đến thông tin hiển thị trên màn hình hoặc đang chạy trong nền.
- Ví dụ, khi người dùng yêu cầu danh sách các hiệu thuốc gần đó và sau đó nói "Gọi cho hiệu thuốc trên đường Rainbow", "Gọi cho hiệu thuốc ở cuối danh sách" hoặc "Gọi số điện thoại này (hiển thị trên màn hình)", ReALM có thể hiểu ngữ cảnh và hoàn thành yêu cầu.
- Các nhà nghiên cứu Apple muốn sử dụng ReALM cho các tác vụ liên quan đến thực thể trên màn hình, thực thể trong cuộc hội thoại và thực thể trong các tiến trình nền.
- Đây là nghiên cứu thứ ba về AI mà Apple công bố trong vài tháng gần đây, cho thấy tiềm năng của AI trong các tính năng sắp tới trên iOS 18, macOS 15 và các hệ điều hành mới.
- Apple cho rằng cách tiếp cận sử dụng prompt và hình ảnh trong ReALM là mới lạ và giúp cải thiện đáng kể hiệu suất so với chỉ sử dụng văn bản như GPT-3.5.
- Mặc dù Apple tin rằng có thể cải thiện hơn nữa kết quả bằng cách lấy mẫu các câu nói tương tự về mặt ngữ nghĩa cho đến khi đạt độ dài prompt, nhưng họ để lại vấn đề này cho các nghiên cứu trong tương lai.
📌 ReALM - mô hình AI mới của Apple được cho là vượt trội hơn GPT-4 trong việc hiểu và xử lý ngữ cảnh, mở ra tiềm năng ứng dụng trong các tính năng sắp tới trên iOS 18, macOS 15. Cách tiếp cận sử dụng prompt và hình ảnh của ReALM là điểm mới lạ giúp cải thiện đáng kể hiệu suất so với chỉ dùng văn bản.
https://bgr.com/tech/apple-says-its-latest-ai-model-realm-is-even-better-than-openais-gpt4/