Sự nguy hiểm của việc phụ thuộc vào Deep Research của OpenAI

-  OpenAI vừa ra mắt Deep Research vào đầu tháng 2/2025, được thiết kế để thực hiện nghiên cứu chuyên sâu, đa bước với chi phí 200 USD/tháng

-  Nhiều học giả đánh giá cao công cụ này:
- Ethan Mollick (Đại học Pennsylvania) cho rằng rất hiệu quả cho việc viết bài
- Kevin Bryan (Đại học Toronto) tin rằng có thể dùng để xuất bản trên các tạp chí hạng B
- Tyler Cowen (Đại học George Mason) so sánh chất lượng tương đương nghiên cứu sinh tiến sĩ làm việc 1-2 tuần

Hạn chế chính của Deep Research:
- Không thể thực hiện nghiên cứu sơ cấp (khảo sát, phỏng vấn)
- Văn phong máy móc, thiếu sống động
- Gặp khó khăn với dữ liệu phức tạp và sáng tạo
- Thường sử dụng nguồn dễ tiếp cận thay vì nguồn chất lượng cao
- Có xu hướng theo quan điểm phổ biến thay vì quan điểm chuyên gia

Ví dụ về sai lệch:
- Không thể ước tính chính xác chi tiêu whisky của hộ gia đình Mỹ (con số thực tế là 20 USD)
- Về bất bình đẳng thu nhập ở Mỹ, mô hình theo quan điểm phổ biến về sự gia tăng mạnh thay vì góc nhìn chuyên gia về sự tăng nhẹ
- Hiểu sai khái niệm "bàn tay vô hình" của Adam Smith dù biết về nghiên cứu của Emma Rothschild

-  Rủi ro lớn nhất là việc phụ thuộc vào công cụ có thể làm giảm khả năng tư duy độc lập và sáng tạo của người dùng

📌 Deep Research của OpenAI với giá 200 USD/tháng chưa thể thay thế hoàn toàn trợ lý nghiên cứu. Công cụ này có 3 hạn chế chính: khả năng xử lý dữ liệu sáng tạo yếu, thiên về quan điểm đa số và có thể làm suy giảm tư duy độc lập của người dùng.

 

https://www.economist.com/finance-and-economics/2025/02/13/the-danger-of-relying-on-openais-deep-research

Sự nguy hiểm của việc phụ thuộc vào Deep Research của OpenAI

Các nhà kinh tế học đang hết lời ca ngợi, nhưng họ nên cẩn trọng

Vào đầu tháng 2, OpenAI – công ty trí tuệ nhân tạo nổi tiếng nhất thế giới – đã ra mắt Deep Research, công cụ “được thiết kế để thực hiện nghiên cứu chuyên sâu, nhiều bước”. Chỉ với vài thao tác trên bàn phím, công cụ này có thể tạo ra một bài nghiên cứu về bất kỳ chủ đề nào trong vài phút. Nhiều học giả yêu thích nó. “Hỏi Deep Research của OpenAI về các chủ đề tôi đang viết bài nghiên cứu đã mang lại kết quả vô cùng hữu ích”, Ethan Mollick của Đại học Pennsylvania nhận xét. Một số nhà kinh tế còn đi xa hơn. “Tôi chắc chắn rằng đối với các tạp chí hạng B, bạn có thể xuất bản các bài viết ‘viết’ trong một ngày”, Kevin Bryan của Đại học Toronto nói. “Tôi cho rằng chất lượng tương đương với việc có một trợ lý nghiên cứu trình độ tiến sĩ giỏi và giao cho người đó một nhiệm vụ trong một hoặc hai tuần”, Tyler Cowen của Đại học George Mason – một nhà kinh tế có tầm ảnh hưởng lớn ở Thung lũng Silicon – cho biết.

Vậy có nên bỏ ra 200 USD mỗi tháng để sử dụng Deep Research? Trước đây, ông Cowen từng cổ vũ những xu hướng nhất thời, như Web3 và Clubhouse – một mạng xã hội từng phổ biến. Nhưng nếu Deep Research thực sự đạt đến mức độ siêu trí tuệ nhân tạo, như nhiều người tin tưởng, thì 2.400 USD mỗi năm có thể là một trong những món hời lớn nhất lịch sử. Để giúp bạn đưa ra quyết định, tác giả bài viết này đã thử nghiệm mô hình mới. Deep Research có thực sự là một trợ lý nghiên cứu tốt cho các nhà kinh tế và những người khác không?

Những giới hạn rõ ràng

Trước hết, Deep Research không thể thực hiện nghiên cứu sơ cấp, từ việc tổ chức khảo sát ở Peru đến quan sát ngôn ngữ cơ thể của một CEO có công ty sắp bị bán khống. Nó cũng không pha được cà phê, khiến nó trở thành một trợ lý kém tiện dụng so với con người. Một điểm hạn chế khác là văn phong của Deep Research thường khô khan, ngay cả khi yêu cầu viết sinh động hơn. Tuy nhiên, đa số mọi người không phải là những cây bút giỏi, nên họ có lẽ cũng không bận tâm nếu trợ lý AI của mình hơi nhàm chán.

Nhưng khi sử dụng Deep Research lâu hơn, 3 vấn đề quan trọng khác sẽ xuất hiện: “sáng tạo dữ liệu”, “sự chuyên chế của số đông” và “tư duy rút gọn”.

Bắt đầu với sáng tạo dữ liệu. Mô hình của OpenAI có thể xử lý các câu hỏi đơn giản – “tỷ lệ thất nghiệp của Pháp năm 2023 là bao nhiêu?” – mà không gặp khó khăn. Nó cũng có thể trả lời những câu hỏi phức tạp hơn một chút – “hãy cho biết tỷ lệ thất nghiệp trung bình năm 2023 của Pháp, Đức và Ý, có trọng số theo dân số” – một cách dễ dàng.

Tuy nhiên, với các câu hỏi dữ liệu đòi hỏi sự sáng tạo, mô hình này gặp khó khăn. Nó ước tính sai số tiền trung bình mà một hộ gia đình Mỹ do người từ 25 đến 34 tuổi đứng đầu đã chi cho rượu whisky vào năm 2021, trong khi bất kỳ ai quen thuộc với dữ liệu của Cục Thống kê Lao động có thể tìm ra con số chính xác (20 USD) chỉ trong vài giây. Nó cũng không thể cho biết chính xác tỷ lệ doanh nghiệp Anh hiện đang sử dụng AI, dù cơ quan thống kê thường xuyên công bố số liệu này. Mô hình thậm chí gặp nhiều khó khăn hơn với các câu hỏi phức tạp hơn, bao gồm cả những câu hỏi liên quan đến phân tích dữ liệu gốc từ các cơ quan thống kê. Đối với những nhiệm vụ như vậy, trợ lý con người vẫn có lợi thế.

Sự chuyên chế của số đông

Vấn đề thứ hai là sự chuyên chế của số đông. Deep Research được đào tạo trên một lượng lớn dữ liệu công khai. Trong nhiều nhiệm vụ, đây là một lợi thế. Nó có thể tạo ra các bản tóm tắt chi tiết, có nguồn trích dẫn đáng kinh ngạc. Ông Cowen đã yêu cầu nó viết một bài báo 10 trang giải thích lý thuyết về địa tô của David Ricardo. Kết quả đủ tốt để đưa vào bất kỳ cuốn giáo trình nào.

Tuy nhiên, lượng nội dung khổng lồ dùng để huấn luyện mô hình lại tạo ra một vấn đề trí tuệ. Deep Research có xu hướng sử dụng các ý tưởng thường xuyên được thảo luận hoặc xuất bản thay vì những ý tưởng chất lượng cao nhất. Số lượng thông tin lấn át chất lượng thông tin. Điều này xảy ra với dữ liệu thống kê: Deep Research thường tham khảo các nguồn có sẵn dễ dàng (như báo chí) thay vì các dữ liệu tốt hơn nhưng có thể bị giới hạn quyền truy cập hoặc khó tìm hơn.

Tình trạng tương tự cũng diễn ra với các ý tưởng. Hãy xem xét câu hỏi – vốn được các nhà kinh tế học tranh luận nhiều – rằng liệu bất bình đẳng thu nhập ở Mỹ có đang gia tăng hay không. Nếu không có chỉ dẫn cụ thể, mô hình mặc định cho rằng bất bình đẳng đã tăng vọt từ thập niên 1960 (theo quan điểm phổ biến) thay vì duy trì ổn định hoặc chỉ tăng nhẹ (quan điểm của nhiều chuyên gia). Hoặc hãy xem xét ý nghĩa thực sự của “bàn tay vô hình” trong tư tưởng của Adam Smith – một ý tưởng nền tảng trong kinh tế học. Trong một bài báo xuất bản năm 1994, Emma Rothschild của Đại học Harvard đã bác bỏ quan niệm cho rằng Smith sử dụng thuật ngữ này để chỉ lợi ích của thị trường tự do. Deep Research có biết đến nghiên cứu của Rothschild, nhưng vẫn lặp lại cách hiểu sai phổ biến. Nói cách khác, những ai sử dụng Deep Research làm trợ lý có nguy cơ chỉ học được quan điểm đồng thuận, chứ không phải quan điểm của những người tinh hoa trong lĩnh vực. Đây là một rủi ro lớn đối với bất kỳ ai kiếm sống bằng sự sáng tạo và tư duy cá nhân, từ các trí thức công chúng đến các nhà đầu tư.

Cái bẫy ngu ngốc

Vấn đề thứ ba khi sử dụng Deep Research làm trợ lý là vấn đề nghiêm trọng nhất. Đây không phải là lỗi của mô hình, mà là cách con người sử dụng nó. Không thể tránh khỏi việc người dùng dần dựa dẫm vào nó và cắt giảm quá trình tư duy. Paul Graham, một nhà đầu tư ở Thung lũng Silicon, từng nhận xét rằng các mô hình AI, khi đề nghị viết hộ con người, có nguy cơ làm họ trở nên ngu ngốc. “Viết là tư duy,” ông nói. “Thực tế có một kiểu tư duy chỉ có thể thực hiện được thông qua viết.” Điều tương tự cũng đúng với nghiên cứu. Trong nhiều công việc, nghiên cứu chính là tư duy: nhận ra những mâu thuẫn và lỗ hổng trong quan điểm thông thường. Nếu giao phó toàn bộ quá trình nghiên cứu cho một trợ lý siêu trí tuệ, người dùng có thể đánh mất cơ hội đưa ra những ý tưởng xuất sắc nhất của mình.

Theo thời gian, OpenAI có thể khắc phục các vấn đề kỹ thuật. Đến một lúc nào đó, Deep Research có thể đưa ra những ý tưởng đột phá, biến nó từ một trợ lý thành nhà nghiên cứu chính. Nhưng cho đến khi điều đó xảy ra, cứ sử dụng Deep Research – ngay cả với giá 200 USD mỗi tháng. Chỉ là đừng mong nó sớm thay thế trợ lý nghiên cứu con người. Và hãy đảm bảo rằng nó không làm bạn trở nên ngu ngốc. ■

 

The danger of relying on OpenAI’s Deep Research
Economists are in raptures, but they should be careful

In early February Openai, the world’s most famous artificial-intelligence firm, released Deep Research, which is “designed to perform in-depth, multi-step research”. With a few strokes of a keyboard, the tool can produce a paper on any topic in minutes. Many academics love it. “Asking OpenAI’s Deep Research about topics I am writing papers on has been incredibly fruitful,” said Ethan Mollick of the University of Pennsylvania. Some economists go further. “I am *sure* for B-level journals, you can publish papers you ‘wrote’ in a day”, said Kevin Bryan of the University of Toronto. “I think of the quality as comparable to having a good PhD-level research assistant, and sending that person away with a task for a week or two,” said Tyler Cowen of George Mason University, an economist with cult-like status in Silicon Valley.
Should you shell out $200 a month for Deep Research? Mr Cowen has hyped fads in the past, as he did with Web3 and Clubhouse, a once-popular social-media network. On the other hand, if Deep Research approximates a form of artificial superintelligence, as many believe, then $2,400 a year is the greatest bargain in the history of the world. To help you decide, your columnist has kicked the tyres of the new model. How good a research assistant is Deep Research, for economists and others?
The obvious conclusions first. Deep Research is unable to conduct primary research, from organising polls in Peru to getting a feel for the body language of a chief executive whose company you might short. Nor can it brew a coffee, making it a poor substitute for a human assistant. Another complaint is that Deep Research’s output is almost always leaden prose, even if you ask it to be more lively. Then again, most people were never good writers anyway, so will hardly care if their ai assistant is a bit dull.
Use Deep Research as an assistant for a while, though, and three more important issues emerge: “data creativity”, the “tyranny of the majority” and “intellectual shortcuts”. Begin with data creativity. OpenAI’s model can handle straightforward questions—“what was France’s unemployment rate in 2023?”—without breaking step. It can handle marginally more complex questions—“tell me the average unemployment rate in 2023 for France, Germany and Italy, weighted by population”—with ease.
When it comes to data questions requiring more creativity, however, the model struggles. It wrongly estimates the average amount of money that an American household headed by a 25- to 34-year-old spent on whisky in 2021, even though anyone familiar with the Bureau of Labour Statistics data can find the exact answer ($20) in a few seconds. It cannot accurately tell you what share of British businesses currently use ai, even though the statistics office produces a regular estimate. The model has even greater difficulty with more complex questions, including those involving the analysis of source data produced by statistical agencies. For such questions, human assistants retain an edge.
The second issue is the tyranny of the majority. Deep Research is trained on an enormous range of public data. For many tasks, this is a plus. It is astonishingly good at producing detailed, sourced summaries. Mr Cowen asked it to produce a ten-page paper explaining David Ricardo’s theory of rent. The output would be a respectable addition to any textbook.
Yet the sheer volume of content used to train the model creates an intellectual problem. Deep Research tends to draw on ideas that are frequently discussed or published, rather than the best stuff. Information volume tyrannises information quality. It happens with statistics: Deep Research is prone to consulting sources that are easily available (such as newspapers), rather than better data that may be behind a paywall or are harder to find.
Something similar happens with ideas. Consider the question—much discussed by economists—of whether American income inequality is rising. Unless prompted to do otherwise, the model blandly assumes that inequality has soared since the 1960s (as is the conventional wisdom) rather than remained flat or increased only a bit (the view of many experts). Or consider the true meaning of Adam Smith’s “invisible hand”, the foundational idea in economics. In a paper published in 1994, Emma Rothschild of Harvard University demolished the notion that Smith used the term to refer to the benefits of free markets. Deep Research is aware of Ms Rothschild’s research but nonetheless repeats the popular misconception. In other words, those using Deep Research as an assistant risk learning about the consensus view, not that of the cognoscenti. That is a huge risk for anyone who makes their income through individual creativity and thought, from public intellectuals to investors.
The idiot trap
A third problem with employing Deep Research as an assistant is the most serious. It is not an issue with the model itself, but how it is used. Ineluctably, you find yourself taking intellectual shortcuts. Paul Graham, a Silicon Valley investor, has noted that AI models, by offering to do people’s writing for them, risk making them stupid. “Writing is thinking,” he has said. “In fact there’s a kind of thinking that can only be done by writing.” The same is true for research. For many jobs, researching is thinking: noticing contradictions and gaps in the conventional wisdom. The risk of outsourcing all your research to a supergenius assistant is that you reduce the number of opportunities to have your best ideas.
With time, OpenAI may iron out its technical issues. At some point, Deep Research may also be able to come up with amazing ideas, turning it from an assistant to the lead researcher. Until then, use Deep Research, even at $200 a month. Just don’t expect it to replace research assistants any time soon. And make sure it doesn’t turn you stupid. ■

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo