- Sam Altman, CEO OpenAI tuyên bố sẽ đẩy nhanh việc ra mắt sản phẩm và phát triển mô hình tốt hơn sau khi DeepSeek của Trung Quốc ra mắt chatbot mới
- Chatbot của DeepSeek có khả năng thực hiện một số tác vụ ngang bằng với các mô hình mới từ OpenAI, Anthropic và Meta, dù chi phí phát triển thấp hơn nhiều
- Thị trường chứng khoán công nghệ chao đảo:
- Nasdaq giảm 3%
- Nvidia mất 600 tỷ USD vốn hóa thị trường, giảm 17%
- Cổ phiếu công nghệ châu Á cũng sụt giảm
- Các khoản đầu tư khổng lồ cho AI:
- SoftBank cam kết 500 tỷ USD cho mạng lưới trung tâm dữ liệu OpenAI
- Microsoft, Meta, Alphabet, Amazon và Oracle dự kiến chi 310 tỷ USD năm 2025 cho cơ sở hạ tầng AI
- Meta dự định chi 65 tỷ USD để mở rộng đội ngũ AI
- DeepSeek tuyên bố chi phí đào tạo mô hình V3 chỉ 5,6 triệu USD, không bao gồm chi phí nghiên cứu và thử nghiệm
- DeepSeek sử dụng:
- Kỹ thuật học tăng cường không cần giám sát của con người
- Mô hình nguồn mở từ Alibaba (Qwen) và Meta (Llama)
- Phương pháp cho phép AI tập trung có chọn lọc vào dữ liệu đầu vào
- Các chuyên gia cảnh báo cuộc đua AI nguy hiểm hơn cuộc chạy đua vũ trang lạnh, có thể gây rủi ro cho nhân loại nếu không kiểm soát được các hệ thống thông minh hơn con người
📌 DeepSeek của Trung Quốc đã làm thay đổi cục diện cuộc đua AI toàn cầu khi tạo ra chatbot hiệu quả với chi phí chỉ bằng 1/10 so với đối thủ. Điều này khiến thị trường chứng khoán công nghệ chao đảo, Nvidia mất 600 tỷ USD vốn hóa và buộc các ông lớn công nghệ phải xem xét lại chiến lược đầu tư.
https://www.ft.com/content/b98e4903-ac05-4462-8ad1-eda619b6a9c4
#FT
Altman của OpenAI cam kết cung cấp “các mô hình tốt hơn” khi DeepSeek của Trung Quốc làm đảo lộn cuộc đua AI toàn cầu
Các giám đốc điều hành và nhà đầu tư đặt câu hỏi về định giá và liệu các khoản đầu tư khổng lồ có thực sự cần thiết hay không.
Sam Altman, giám đốc điều hành của OpenAI, cho biết ông sẽ đẩy nhanh các sản phẩm mới và “cung cấp những mô hình vượt trội hơn nhiều” sau khi một công ty khởi nghiệp AI của Trung Quốc, DeepSeek, tung ra một mô hình mạnh mẽ làm suy yếu vị thế dẫn đầu của Thung lũng Silicon trong cuộc đua AI toàn cầu.
Chatbot AI tạo sinh của DeepSeek, một đối thủ cạnh tranh trực tiếp với ChatGPT, có khả năng thực hiện một số nhiệm vụ ở cùng cấp độ với các mô hình gần đây từ OpenAI, Anthropic và Meta, mặc dù được cho là chỉ tiêu tốn một phần nhỏ chi phí và thời gian để phát triển.
Việc DeepSeek công bố mô hình R1 vào tuần trước và nhanh chóng vươn lên vị trí dẫn đầu trên App Store của Apple đã kích hoạt làn sóng bán tháo cổ phiếu công nghệ. Cổ phiếu công nghệ châu Á giảm vào thứ Ba, sau đợt sụt giảm trên Phố Wall vào đêm trước. Nasdaq giảm 3%, và nhà sản xuất chip của Mỹ Nvidia — công ty sản xuất các GPU dùng để đào tạo các mô hình AI lớn — giảm 17%, mất 600 tỷ USD giá trị vốn hóa thị trường.
Tối thứ Hai, Altman viết trên mạng xã hội X rằng mô hình của DeepSeek “ấn tượng, đặc biệt là ở những gì họ có thể cung cấp với mức chi phí như vậy.” Ông nói thêm: “Chúng tôi rõ ràng sẽ cung cấp các mô hình tốt hơn nhiều và thật sự rất thú vị khi có một đối thủ mới!”
Altman, người tuần trước đã công bố rằng một tập đoàn nhà đầu tư, bao gồm cả SoftBank, sẽ chi tới 500 tỷ USD để xây dựng mạng lưới trung tâm dữ liệu hỗ trợ các mô hình AI của OpenAI, nhấn mạnh rằng tài nguyên tính toán hiện nay “quan trọng hơn bao giờ hết.”
Theo dữ liệu của Visible Alpha, Microsoft, Meta, Alphabet, Amazon và Oracle đã dành 310 tỷ USD trong năm 2025 cho chi tiêu vốn, bao gồm cả hạ tầng AI. Các ước tính này được dựa trên giả định rằng cần khối lượng lớn tài nguyên tính toán để phát triển các khả năng AI.
Tuy nhiên, khả năng của DeepSeek trong việc cạnh tranh với ngân sách chỉ bằng một phần nhỏ so với OpenAI — được định giá gần đây ở mức 157 tỷ USD — và các đối thủ Anthropic, Google, Meta đã đặt ra câu hỏi về những khoản tiền khổng lồ đang được rót vào để đào tạo các hệ thống AI.
“Người chiến thắng sẽ không phải là những kẻ đốt tiền nhiều nhất,” Aidan Gomez, nhà sáng lập Cohere, một công ty ở Toronto chuyên xây dựng các mô hình ngôn ngữ lớn cho doanh nghiệp, chia sẻ. Thay vào đó, ông nói, “họ sẽ là những người tìm ra giải pháp hiệu quả nhất.”
Sự thành công của DeepSeek cũng làm lộ rõ rủi ro cho các nhà đầu tư mạo hiểm, những người đã đổ gần 100 tỷ USD vào các công ty khởi nghiệp AI ở Mỹ vào năm ngoái. “Giờ đây có một mô hình mở đang lưu hành trên internet mà bất kỳ ai cũng có thể sử dụng để khởi động bất kỳ mô hình nền tảng đủ mạnh nào thành một hệ thống AI lý luận,” Jack Clark, đồng sáng lập Anthropic, viết trên blog vào thứ Hai.
“Khả năng AI trên toàn cầu vừa có một bước tiến không thể đảo ngược,” ông nói thêm. “Xin chúc mừng DeepSeek vì sự táo bạo khi mang đến một thay đổi như vậy cho thế giới!”
Thành công của DeepSeek đã làm phức tạp thêm lập luận rằng các khoản tiền lớn tạo ra lợi thế không thể xâm phạm — một lập luận đã giúp các phòng thí nghiệm hàng đầu ở Thung lũng Silicon huy động hàng chục tỷ USD trong năm qua.
“Nếu bạn là Anthropic hay OpenAI, đang cố gắng đứng đầu, mà ai đó lại có thể cung cấp dịch vụ tương tự với chi phí chỉ bằng một phần mười, thì điều đó thực sự gây vấn đề,” Mike Volpi, người dẫn đầu khoản đầu tư của Index Ventures vào Cohere, cho biết.
Việc DeepSeek bất ngờ công bố mô hình mới nhất đã khiến một số nhân sự tại Meta ngạc nhiên. “Sự bực bội lớn nhất là: ‘Tại sao chúng ta không làm được điều này trước?’ khi chúng ta có hàng ngàn bộ óc sáng giá nhất làm việc trên vấn đề này,” một nhân viên Meta nói.
Giám đốc điều hành Mark Zuckerberg — tuần trước tuyên bố rằng ông dự định phân bổ tới 65 tỷ USD chi tiêu vốn để mở rộng đội ngũ AI và xây dựng một trung tâm dữ liệu mới — đã tích cực vận động cho mã nguồn mở, đặt Meta ở vị trí dẫn đầu tại Mỹ. “Chúng tôi muốn Hoa Kỳ thiết lập tiêu chuẩn AI toàn cầu, chứ không phải Trung Quốc,” công ty tuyên bố khi được hỏi về DeepSeek.
Yann LeCun, nhà khoa học AI trưởng của Meta, cho biết “việc vận hành các dịch vụ trợ lý AI cho hàng tỷ người” vẫn đòi hỏi mức tài nguyên tính toán khổng lồ.
Những người trong ngành và nhà đầu tư cạnh tranh đã bày tỏ hoài nghi về mức chi phí thấp mà DeepSeek công bố cho việc phát triển các mô hình của mình. Tháng 12, công ty cho biết mô hình V3, nền tảng của chatbot trên ứng dụng của họ, chỉ tốn 5,6 triệu USD để đào tạo.
Tuy nhiên, con số này chỉ bao gồm lần đào tạo cuối cùng, không bao gồm toàn bộ chu kỳ, và loại trừ “các chi phí liên quan đến nghiên cứu trước đó và… các thử nghiệm về kiến trúc, thuật toán hoặc dữ liệu,” công ty cho biết thêm.
DeepSeek đã quy thành công của mình — dù sử dụng chip kém hiệu quả hơn so với các đối thủ ở Mỹ — cho các phương pháp cho phép mô hình AI tập trung có chọn lọc vào các phần cụ thể của dữ liệu đầu vào, qua đó giảm chi phí vận hành mô hình.
Đối với mô hình R1 mới nhất, DeepSeek đã sử dụng kỹ thuật học tăng cường (reinforcement learning), một phương pháp tương đối mới trong lĩnh vực AI, trong đó các mô hình tự học cách cải thiện mà không cần sự giám sát của con người. Công ty cũng tận dụng các mô hình mã nguồn mở, bao gồm Qwen của Alibaba và Llama của Meta, để tinh chỉnh mô hình lý luận R1 của mình.
Những tiến bộ kỹ thuật và sự quan tâm của các nhà đầu tư đối với tiến bộ của DeepSeek có thể tạo động lực mạnh mẽ cho các công ty AI. “Nhìn chung, chúng tôi dự đoán xu hướng sẽ nghiêng về việc cải thiện khả năng, tăng tốc tiến tới trí tuệ nhân tạo tổng quát (AGI), hơn là giảm chi tiêu,” công ty nghiên cứu Rosenblatt cho biết vào thứ Hai.
Các nhà nghiên cứu và nhà đầu tư, bao gồm Marc Andreessen, đã so sánh cuộc đua giữa Mỹ và Trung Quốc trong lĩnh vực AGI với cuộc cạnh tranh với Liên Xô trong thời kỳ Chiến tranh Lạnh, cả về khám phá không gian và phát triển vũ khí hạt nhân.
Stuart Russell, giáo sư khoa học máy tính tại Đại học California, Berkeley, nhận định rằng cuộc đua hướng tới AGI thậm chí còn “tồi tệ hơn.”
“Ngay cả các CEO đang tham gia vào cuộc đua này cũng thừa nhận rằng người chiến thắng có khả năng cao gây ra sự tuyệt chủng của con người trong quá trình này, bởi vì chúng ta hoàn toàn không biết cách kiểm soát các hệ thống thông minh hơn chính mình,” ông nói. “Nói cách khác, cuộc đua AGI là một cuộc chạy đua tới bờ vực của vách đá.”
OpenAI’s Altman vows ‘better models’ as China’s DeepSeek disrupts global race
Executives and investors question valuations and whether vast capital outlays are needed after all
OpenAI, DeepSeek and Meta are among the worldwide groups battling for AI supremacy © FT montage/
Cristina Criddle, George Hammond, Hannah Murphy and Tabby Kinder in San Francisco 12 minutes ago
OpenAI chief executive Sam Altman said he would fast-track product releases and “deliver much better models” after the release of a powerful new model by Chinese start-up DeepSeek undermined Silicon Valley’s lead in a global artificial intelligence arms race.
DeepSeek’s generative AI chatbot, a direct rival to ChatGPT, is able to perform some tasks at the same level as recently released models from OpenAI, Anthropic and Meta, despite claims it cost a fraction of the money and time to develop.
The release of DeepSeek’s R1 model last week and its rise to the top of Apple’s App Store has triggered a tech stock sell-off. Asian tech shares fell on Tuesday, in the wake of a Wall Street rout overnight. The Nasdaq fell 3 per cent and US chipmaker Nvidia, which produces the chips used to train large AI models slumped 17 per cent, losing $600bn in market capitalisation.
On Monday evening, Altman wrote on X that DeepSeek’s model was “impressive, particularly around what they’re able to deliver for the price”. He added: “We will obviously deliver much better models and also it’s legit invigorating to have a new competitor!”
Altman, who last week announced that a consortium of investors including SoftBank would spend up to $500bn to build a network of data centres to power its AI models, added that computing resources were “more important now than ever before”.
Microsoft, Meta, Alphabet, Amazon and Oracle have earmarked $310bn in 2025 for capital expenditure, which includes AI infrastructure, according to data compiled by Visible Alpha. Such estimates have been based on the premise that huge amounts of computing power will be needed to advance AI capabilities.
But DeepSeek’s ability to compete on a fraction of the budget of OpenAI — which was recently valued at $157bn — and rivals Anthropic, Google and Meta, has raised questions about the vast sums being poured into training systems.
“The winners won’t be the ones burning the most cash,” said Aidan Gomez, founder of Toronto-based Cohere, which builds large language models for enterprises. Instead, he said, they would be those “finding efficient solutions”.
It has also exposed risks for venture capitalists who poured almost $100bn into US AI start-ups last year. “There’s now an open weight model floating around the internet which you can use to bootstrap any other sufficiently powerful base model into being an AI reasoner,” said Jack Clark, cofounder of Anthropic, in a blog on Monday.
“AI capabilities worldwide just took a one-way ratchet forward,” he added. “Kudos to DeepSeek for being so bold as to bring such a change into the world!”
DeepSeek’s success has complicated the argument that massive cash piles create an unassailable advantage — an argument which has helped leading Silicon Valley labs raise tens of billions of dollars over the past year.
“If you’re Anthropic or OpenAI, attempting to be at the forefront, and someone can serve what you can at a tenth of the cost, that’s problematic,” said Mike Volpi, who led Index Ventures’ investment into Cohere.
The sudden release of DeepSeek’s latest model surprised some at Meta. “The main frustration is, ‘Why didn’t we come up with this first?’ when we have thousands of the brightest minds working on this,” said one Meta employee.
Chief executive Mark Zuckerberg — who last week said he expected to allocate up to $65bn in capital spending to expand AI teams and build a new data centre — has lobbied hard for open source, positioning Meta at its forefront in the US. “We want the US to set the global AI standard, not China,” the company said in response to DeepSeek.
Meta’s chief AI scientist Yann LeCun said “running AI assistant services for billions” would still require large levels of computing power.
Rival company insiders and investors have expressed scepticism about the low costs cited by DeepSeek in developing its models. In December, the company said its V3 model, which its app’s chatbot runs on, cost $5.6mn to train.
However, this figure was only for the final training run, not the complete cycle, and excluded “the costs associated with prior research and . . . experiments on architectures, algorithms, or data”, it added.
DeepSeek has attributed its success — despite using inferior chips to its US competitors — to methods that allow the AI model to selectively focus on specific parts of input data as a way of reducing the costs of running the model.
For its latest R1 model, it used a reinforcement learning technique, a relatively new approach to AI in which models teach themselves how to improve without human supervision. The company also used open-source models, including Alibaba’s Qwen and Meta’s Llama, to fine tune its R1 reasoning model.
The technical advances and investor interest in DeepSeek’s progress could light a fire under AI companies. “In general, we expect the bias to be on improved capability, sprinting faster towards artificial general intelligence, more than reduced spending,” said research firm Rosenblatt on Monday.
Researchers and investors, including Marc Andreessen, have drawn parallels between the race between the US and China on artificial general intelligence and its competition with the Soviet Union during the cold war, both in space exploration and nuclear weapons development.
Stuart Russell, professor of computer science at the University of California, Berkeley, said the race to AGI was “worse”.
“Even the CEOs who are engaging in the race have stated that whoever wins has a significant probability of causing human extinction in the process, because we have no idea how to control systems more intelligent than ourselves,” he said. “In other words, the AGI race is a race towards the edge of a cliff.”