- DeepSeek, startup Trung Quốc, gây chấn động ngành AI khi giới thiệu mô hình nguồn mở được đào tạo với số chip xử lý ít hơn đáng kể so với các đối thủ
- Nhân viên OpenAI nghi ngờ DeepSeek đã "chưng cất không phù hợp" từ các mô hình của OpenAI để tạo ra mô hình của riêng mình
- Marc Andreessen, nhà sáng chế có ảnh hưởng tại Silicon Valley, gọi DeepSeek R1 là "khoảnh khắc Sputnik của AI"
- OpenAI đẩy nhanh kế hoạch ra mắt mô hình mới o3-mini, với khả năng suy luận cấp độ o1 và tốc độ cấp độ 4o
- Nội bộ OpenAI xuất hiện mâu thuẫn giữa nhóm nghiên cứu và nhóm sản phẩm, đặc biệt trong việc phát triển ChatGPT
- DeepSeek đã xây dựng dựa trên công nghệ học tăng cường mà OpenAI tiên phong phát triển để tạo ra hệ thống suy luận nâng cao R1
- OpenAI đang phát triển dự án Stargate với trung tâm dữ liệu đầu tiên tại Abilene, Texas, có diện tích 998.000 foot vuông
- Cổ phiếu Nvidia sụt giảm do nhà đầu tư lo ngại ngành công nghiệp đã ước tính quá cao số lượng chip cần thiết cho AI
- DeepSeek để lộ cơ sở dữ liệu cốt lõi, làm rò rỉ 1 triệu bản ghi bao gồm lệnh người dùng và mã xác thực API
📌 DeepSeek đã tạo ra bước ngoặt trong ngành AI với mô hình nguồn mở hiệu quả, buộc OpenAI phải đẩy nhanh phát triển mô hình o3-mini. Mâu thuẫn nội bộ và áp lực cạnh tranh đang thử thách vị thế dẫn đầu của OpenAI trong lĩnh vực AI.
https://www.wired.com/story/openai-deepseek-stargate-sam-altman/
DeepSeek khiến OpenAI "nóng mặt"
Sau khi một startup Trung Quốc làm chao đảo ngành công nghiệp, OpenAI gấp rút phản hồi—sớm hơn dự kiến
Chỉ hơn một tuần sau khi DeepSeek khuấy động thế giới AI, OpenAI đã rung chuyển. Việc DeepSeek ra mắt mô hình mã nguồn mở—dường như được huấn luyện trên một phần nhỏ số chip chuyên dụng mà các công ty hàng đầu đang sử dụng—đã gây sốc bên trong OpenAI. Nhân viên không chỉ nghi ngờ DeepSeek đã “chưng cất không phù hợp” các mô hình của OpenAI để tạo ra mô hình riêng mà thành công của startup này còn khiến Phố Wall đặt câu hỏi liệu các công ty như OpenAI có đang chi tiêu quá mức cho năng lực tính toán.
“DeepSeek R1 là khoảnh khắc Sputnik của AI,” Marc Andreessen—một trong những nhà phát minh có ảnh hưởng và khiêu khích nhất của Silicon Valley—viết trên X.
Để phản hồi, OpenAI chuẩn bị ra mắt một mô hình mới ngay hôm nay, sớm hơn kế hoạch ban đầu. Mô hình này, o3-mini, sẽ có mặt trên cả API và chat. Nguồn tin cho biết nó có khả năng suy luận ở mức o1 nhưng tốc độ ở mức o4. Nói cách khác, nó nhanh, rẻ, thông minh và được thiết kế để đánh bại DeepSeek.
Khoảnh khắc này đã tiếp thêm động lực cho nhân viên OpenAI. Bên trong công ty, nhiều người cảm thấy rằng—đặc biệt khi DeepSeek đang chiếm lĩnh mọi cuộc thảo luận—OpenAI buộc phải hoạt động hiệu quả hơn nếu không muốn bị đối thủ mới nhất vượt mặt.
Một phần vấn đề xuất phát từ nguồn gốc của OpenAI, vốn là một tổ chức nghiên cứu phi lợi nhuận trước khi trở thành một công ty tìm kiếm lợi nhuận. Theo nhân viên, cuộc đấu tranh quyền lực kéo dài giữa nhóm nghiên cứu và nhóm sản phẩm đã tạo ra rạn nứt giữa các đội ngũ làm việc về suy luận nâng cao và những người làm về chat. (Người phát ngôn của OpenAI, Niko Felix, cho rằng điều này “không chính xác” và lưu ý rằng lãnh đạo của hai nhóm này—giám đốc sản phẩm Kevin Weil và giám đốc nghiên cứu Mark Chen—“họp hàng tuần và phối hợp chặt chẽ để thống nhất các ưu tiên về sản phẩm và nghiên cứu.”)
Một số người trong OpenAI muốn công ty phát triển một sản phẩm chat thống nhất—một mô hình có thể tự động xác định liệu một câu hỏi có yêu cầu suy luận nâng cao hay không. Tuy nhiên, điều này vẫn chưa thành hiện thực. Thay vào đó, ChatGPT hiện có một menu thả xuống yêu cầu người dùng chọn giữa GPT-4o (“tốt cho hầu hết các câu hỏi”) hoặc o1 (“sử dụng suy luận nâng cao”).
Một số nhân viên cho rằng dù chat đóng góp phần lớn doanh thu của OpenAI, o1 lại nhận được nhiều sự quan tâm—và tài nguyên tính toán—từ ban lãnh đạo. “Lãnh đạo không quan tâm đến chat,” một cựu nhân viên từng làm việc trong nhóm chat nhận xét. “Ai cũng muốn làm ở o1 vì nó hấp dẫn, nhưng nền tảng mã không được xây dựng để thử nghiệm, nên chẳng có động lực phát triển.” Người này yêu cầu giấu tên do ràng buộc bởi thỏa thuận bảo mật.
OpenAI đã dành nhiều năm thử nghiệm học tăng cường để tinh chỉnh mô hình sau này trở thành hệ thống suy luận nâng cao o1. (Học tăng cường là quá trình huấn luyện mô hình AI bằng hệ thống phần thưởng và hình phạt.) DeepSeek đã tận dụng công trình về học tăng cường mà OpenAI tiên phong để phát triển hệ thống suy luận nâng cao của mình, gọi là R1. “Họ hưởng lợi từ việc biết rằng học tăng cường, khi áp dụng vào mô hình ngôn ngữ, sẽ hiệu quả,” một cựu nhà nghiên cứu của OpenAI chia sẻ. Người này không được phép công khai phát ngôn về công ty.
“Học tăng cường mà [DeepSeek] áp dụng tương tự những gì chúng tôi đã làm ở OpenAI,” một cựu nhà nghiên cứu khác của OpenAI nói, “nhưng họ làm với dữ liệu tốt hơn và một nền tảng sạch hơn.”
Nhân viên OpenAI cho biết nghiên cứu dành cho o1 được thực hiện trên một nền tảng mã có tên “berry” stack, được thiết kế để tối ưu tốc độ. “Có những đánh đổi—giữa tính nghiêm ngặt trong thử nghiệm và hiệu suất xử lý,” một cựu nhân viên có hiểu biết trực tiếp về tình hình cho biết.
Những đánh đổi đó hợp lý đối với o1, vốn dĩ là một thử nghiệm khổng lồ, bất chấp các hạn chế của nền tảng mã. Nhưng với chat—một sản phẩm được hàng triệu người sử dụng và được xây dựng trên một nền tảng khác, ổn định hơn—thì lại không hợp lý bằng. Khi o1 ra mắt và trở thành một sản phẩm, những điểm yếu trong quy trình nội bộ của OpenAI bắt đầu lộ ra. “Mọi người tự hỏi: ‘Tại sao chúng ta lại làm điều này trên nền tảng mã thử nghiệm? Lẽ ra phải làm trên nền tảng mã nghiên cứu sản phẩm chính chứ?’” một nhân viên giải thích. “Đã có sự phản đối dữ dội trong nội bộ.”
Năm ngoái, công ty đã công bố Project Sputnik nội bộ—một nỗ lực rà soát mã để xác định phần nào nên hợp nhất và phần nào nên giữ riêng biệt.
Nhân viên tin rằng dự án này không được thực hiện đầy đủ. Thay vì hợp nhất các nền tảng, họ chỉ được khuyến khích ưu tiên sử dụng nền tảng “berry”, điều này khiến một số người làm về chat không hài lòng. Người phát ngôn của OpenAI bác bỏ điều này và cho biết Project Sputnik đã được triển khai thành công.
Những vấn đề được cho là tồn tại trong nền tảng mã đã dẫn đến hậu quả thực tế, theo các nguồn tin. Lý tưởng nhất, khi một nhân viên khởi chạy một tác vụ huấn luyện, các GPU được sử dụng cho tác vụ đó sẽ được giải phóng để người khác sử dụng. Nhưng do cách nền tảng berry được cấu trúc, điều này không phải lúc nào cũng xảy ra. “Mọi người cứ giữ chặt GPU,” một cựu nhân viên cho biết. “Dẫn đến tình trạng tắc nghẽn.”
Bên ngoài OpenAI, ngành công nghiệp AI đang chia rẽ về cách nhìn nhận thành công của DeepSeek. Đầu tuần này, cổ phiếu Nvidia lao dốc khi các nhà đầu tư lo ngại rằng ngành công nghiệp này đã đánh giá quá cao số lượng chip cần thiết để phát triển AI.
Nhưng cách nhìn đó quá thiển cận, theo các chuyên gia. Nếu DeepSeek thực sự tìm ra cách phát triển mô hình hiệu quả hơn như họ tuyên bố, điều đó có thể đẩy nhanh quá trình phát triển mô hình. Nhưng cuối cùng, kẻ chiến thắng vẫn sẽ là công ty sở hữu nhiều chip nhất.
“Cần ít tài nguyên tính toán hơn để tạo ra một đơn vị trí tuệ, nhưng mọi người vẫn muốn có nhiều đơn vị hơn để mở rộng quy mô,” Miles Brundage, một nhà nghiên cứu chính sách AI độc lập, người đã làm việc tại OpenAI trong 6 năm và gần đây nhất là cố vấn cấp cao về khả năng sẵn sàng của AGI, nhận định.
Có lẽ Stargate, dự án cơ sở hạ tầng hoành tráng mới của OpenAI, sẽ giúp giảm bớt cảm giác khan hiếm tài nguyên trong nội bộ công ty. Crusoe, công ty đang xây dựng các trung tâm dữ liệu đầu tiên của Stargate tại Abilene, Texas, đã bắt đầu khởi công một cơ sở rộng 92.700 m², theo Andrew Schmitt, người phát ngôn của Crusoe.
Dù chi tiết của dự án vẫn chưa rõ ràng, nguồn tin cho biết dự án có thể mở rộng để bao gồm nhiều trung tâm dữ liệu hơn, sản xuất chip và cả siêu máy tính. OpenAI có kế hoạch bổ nhiệm một CEO mới để dẫn dắt dự án—ít nhất là trên lý thuyết.
CEO hiện tại, Sam Altman, “rất giỏi trong việc đưa ra những lời hứa về tương lai. Nhưng đến khi tương lai đến, những điều đó lại trở nên hoàn toàn không đáng tin,” một cựu nhân viên nhận xét.
Năm 2023, Steven Levy đã có một cái nhìn toàn diện về OpenAI trong những tháng trước hàng loạt biến động đình đám của công ty. Ngay cả khi đó, những căng thẳng đang bùng nổ hiện nay cũng đã manh nha xuất hiện.
Không thể gọi OpenAI là một “giáo phái”, nhưng khi tôi hỏi một số lãnh đạo cấp cao liệu ai đó có thể làm việc thoải mái ở đây mà không tin vào AGI hay không—và rằng AGI sẽ là một trong những cột mốc vĩ đại nhất trong lịch sử nhân loại—hầu hết đều cho rằng không. Họ tự hỏi: “Tại sao một người không tin lại muốn làm việc ở đây?” Ngầm hiểu rằng đội ngũ nhân sự—hiện khoảng 500 người, có thể đã tăng lên khi bạn đọc đến đây—đều là những người tin tưởng tuyệt đối vào sứ mệnh này. Ít nhất, như Altman nói, một khi bạn được tuyển vào OpenAI, gần như chắc chắn bạn sẽ bị cuốn theo tầm nhìn của công ty.
Nhưng OpenAI giờ không còn là công ty của ngày trước nữa. Ban đầu, công ty được thành lập như một tổ chức nghiên cứu phi lợi nhuận, nhưng hiện nay, hầu hết nhân viên thực chất làm việc cho một thực thể tìm kiếm lợi nhuận, được định giá gần 30 tỷ USD. Altman và đội ngũ của mình giờ đây chịu áp lực phải tạo ra những cuộc cách mạng trong từng chu kỳ sản phẩm, vừa để đáp ứng kỳ vọng thương mại của nhà đầu tư, vừa để duy trì lợi thế trong một thị trường cạnh tranh khốc liệt. Tất cả những điều đó, trong khi vẫn phải tuân theo sứ mệnh gần như “thiên sai” nhằm nâng tầm nhân loại, chứ không phải hủy diệt nó.
Áp lực đó—chưa kể đến việc cả thế giới dõi theo từng động thái—có thể trở thành một gánh nặng nặng nề. The Beatles từng tạo ra làn sóng thay đổi văn hóa khổng lồ, nhưng họ chỉ duy trì cuộc cách mạng của mình trong một thời gian ngắn: 6 năm sau khi tạo ra những giai điệu bất hủ, họ thậm chí còn không còn là một ban nhạc nữa.
Cơn bão mà OpenAI đang tạo ra chắc chắn sẽ còn lớn hơn thế. Nhưng các lãnh đạo của OpenAI thề rằng họ sẽ đi đến cùng. Tất cả những gì họ muốn làm, họ nói, là xây dựng những cỗ máy đủ thông minh và đủ an toàn để "kết thúc lịch sử", đưa nhân loại bước vào một kỷ nguyên thịnh vượng không tưởng.
DeepSeek đã để lộ một cơ sở dữ liệu cốt lõi, làm rò rỉ 1 triệu bản ghi, bao gồm câu lệnh của người dùng và mã xác thực API.
DeepSeek Has Gotten OpenAI Fired Up
After a Chinese-startup roiled the industry, OpenAI readies a response—ahead of schedule
It’s been just over a week since DeepSeek upended the AI world. The introduction of its open-weight model—apparently trained on a fraction of the specialized computing chips that power industry leaders—set off shock waves inside OpenAI. Not only did employees claim to see hints that DeepSeek had “inappropriately distilled” OpenAI’s models to create its own, but the startup's success had Wall Street questioning whether companies like OpenAI were wildly overspending on compute.
“DeepSeek R1 is AI's Sputnik moment,” wrote Marc Andreessen, one of Silicon Valley’s most influential and provocative inventors, on X.
In response, OpenAI is preparing to launch a new model today, ahead of its originally planned schedule. The model, o3-mini, will debut in both API and chat. Sources say it has o1 level reasoning with 4o-level speed. In other words, it’s fast, cheap, smart, and designed to crush DeepSeek.
The moment has galvanized OpenAI staff. Inside the company, there’s a feeling that—particularly as DeepSeek dominates the conversation—OpenAI must become more efficient or risk falling behind its newest competitor.
Part of the issue stems from OpenAI’s origins as a nonprofit research organization before becoming a profit-seeking powerhouse. An ongoing power struggle between the research and product groups, employees claim, has resulted in a rift between the teams working on advanced reasoning and those working on chat. (OpenAI spokesperson Niko Felix says this is “incorrect” and notes that the leaders of these teams, chief product officer Kevin Weil and chief research officer Mark Chen, “meet every week and work closely to align on product and research priorities.”)
Some inside OpenAI want the company to build a unified chat product, one model that can tell whether a question requires advanced reasoning. So far, that hasn’t happened. Instead, a drop-down menu in ChatGPT prompts users to decide whether they want to use GPT-4o (“great for most questions”) or o1 (“uses advanced reasoning”).
Some staffers claim that while chat brings in the lion’s share of OpenAI’s revenue, o1 gets more attention—and computing resources—from leadership. “Leadership doesn’t care about chat,” says a former employee who worked on (you guessed it) chat. “Everyone wants to work on o1 because it’s sexy, but the code base wasn’t built for experimentation, so there’s no momentum.” The former employee asked to remain anonymous, citing a nondisclosure agreement.
OpenAI spent years experimenting with reinforcement learning to fine-tune the model that eventually became the advanced reasoning system called o1. (Reinforcement learning is a process that trains AI models with a system of penalties and rewards.) DeepSeek built off the reinforcement learning work that OpenAI had pioneered in order to create its advanced reasoning system, called R1. “They benefited from knowing that reinforcement learning, applied to language models, works,” says a former OpenAI researcher who is not authorized to speak publicly about the company.
“The reinforcement learning [DeepSeek] did is similar to what we did at OpenAI,” says another former OpenAI researcher, “but they did it with better data and cleaner stack.”
OpenAI employees say research that went into o1 was done in a code base, called the “berry” stack, built for speed. “There were trade-offs—experimental rigor for throughput,” says a former employee with direct knowledge of the situation.
Those trade-offs made sense for o1, which was essentially an enormous experiment, code base limitations notwithstanding. They did not make as much sense for chat, a product used by millions of users that was built on a different, more reliable stack. When o1 launched and became a product, cracks started to emerge in OpenAI’s internal processes. “It was like, ‘why are we doing this in the experimental codebase, shouldn’t we do this in the main product research codebase?’” the employee explains. “There was major pushback to that internally.”
Last year, the company announced Project Sputnik internally—an effort to go through the code and figure out which parts should merge and which parts should remain separate.
Employees believe the project was not fully realized. Rather than merge the stacks, employees were encouraged to simply prioritize using the “berry” stack, which angered some people working on chat. An OpenAI spokesperson denies this and says Project Sputnik was successfully deployed.
The perceived issues with the codebase had tangible repercussions, sources say. Ideally, after an employee launches a training job, the GPUs involved in that job are freed up for someone else to use. The way the berry code base is structured, that doesn’t always happen. “People would just squat on the GPUs,” one former employee says. “There was gridlock.”
Outside OpenAI, the industry is divided on how to interpret DeepSeek’s success. Earlier this week, shares of Nvidia plunged as investors worried that the industry had wildly overestimated the number of chips needed to work on AI.
But that interpretation is shortsighted, experts say. If DeepSeek discovered a way to do model development more efficiently, as it claims, it might accelerate the model development process, but ultimately the winner will still be the company with the most chips.
“You do need less compute per unit of intelligence, but people are still going to want more units to scale up even more,” says Miles Brundage, an independent AI policy researcher who worked at OpenAI for six years, most recently as a senior adviser for AGI readiness.
Perhaps Stargate, OpenAI’s flashy new infrastructure project, will ease the feeling of scarcity internally. Crusoe, the company building Stargate’s first data centers in Abilene, Texas, has already broken ground on a 998,000 square foot facility, according to Andrew Schmitt, a spokesperson for the company.
While the details of the project are opaque, I’m told it could grow to encompass more data centers, chip manufacturing, and supercomputers. OpenAI plans to appoint a new CEO to lead the project—at least in theory.
Current CEO Sam Altman “is very good at making promises of what will happen in the future. And then in the future those things are just completely unreliable,” says another former staffer.
Image may contain Label Text Symbol and Sign
Time Travel
In 2023, Steven Levy provided a definitive look inside OpenAI in the months before its various, highly publicized upheavals. Even then, the tensions that are boiling over today were already apparent.
It’s not fair to call OpenAI a cult, but when I asked several of the company’s top brass if someone could comfortably work there if they didn’t believe AGI was truly coming—and that its arrival would mark one of the greatest moments in human history—most executives didn’t think so. Why would a nonbeliever want to work here? they wondered. The assumption is that the workforce—now at approximately 500, though it might have grown since you began reading this paragraph—has self-selected to include only the faithful. At the very least, as Altman puts it, once you get hired, it seems inevitable that you’ll be drawn into the spell.
At the same time, OpenAI is not the company it once was. It was founded as a purely nonprofit research operation, but today most of its employees technically work for a profit-making entity that is reportedly valued at almost $30 billion. Altman and his team now face the pressure to deliver a revolution in every product cycle, in a way that satisfies the commercial demands of investors and keeps ahead in a fiercely competitive landscape. All while hewing to a quasi-messianic mission to elevate humanity rather than exterminate it.
That kind of pressure—not to mention the unforgiving attention of the entire world—can be a debilitating force. The Beatles set off colossal waves of cultural change, but they anchored their revolution for only so long: Six years after chiming that unforgettable chord they weren’t even a band anymore. The maelstrom OpenAI has unleashed will almost certainly be far bigger. But the leaders of OpenAI swear they’ll stay the course. All they want to do, they say, is build computers smart enough and safe enough to end history, thrusting humanity into an era of unimaginable bounty.
Last but Not Least
DeepSeek left a core database exposed, leaking 1 million records, including user prompts and API authentication tokens.