“Chúng tôi không có hào nước”: Sự đổi mới đột phá của AI nguồn mở

Thứ hai - 17/02/2025 06:59
“Chúng tôi không có hào nước”: Sự đổi mới đột phá của AI nguồn mở

We Have No Moat”: Open Source AI's Breakneck Innovation

Jim Zemlin, Executive Director at Linux Foundation

Published Feb 7, 2025

Theo: https://www.linkedin.com/pulse/we-have-moat-open-source-ais-breakneck-innovation-jim-zemlin-fsrwc

Bài được đưa lên Internet ngày: 07/02/2025

Vào tháng 5 năm 2023, một bản ghi nhớ từ một kỹ sư AI giấu tên của Google đã bị rò rỉ và nhanh chóng lan truyền trên các trang tin công nghệ, thu hút hàng nghìn bình luận trên Hacker News. Bản ghi nhớ có tiêu đề "Chúng tôi không có hào nước... Và OpenAI cũng vậy". Nội dung chính của bài đăng là thế này — hãy ngừng tập trung vào việc xây dựng mô hình khổng lồ tiếp theo và bắt đầu làm việc với cộng đồng nguồn mở vì cuối cùng họ sẽ đánh bại chúng ta. "Chúng tôi đã nhìn lại OpenAI rất nhiều. Ai sẽ vượt qua cột mốc tiếp theo? Động thái tiếp theo sẽ là gì? Nhưng sự thật khó chịu là chúng tôi không ở vị thế để giành chiến thắng trong cuộc chạy đua vũ trang này và OpenAI cũng vậy. Trong khi chúng tôi đang cãi vã, một phe phái thứ ba đã âm thầm ăn bữa trưa của chúng tôi. Tất nhiên, tôi đang nói về nguồn mở. Nói một cách đơn giản, họ đang vượt qua chúng tôi. Những thứ mà chúng tôi coi là "vấn đề mở lớn" đã được giải quyết và nằm trong tay mọi người ngày nay."

Bài đăng này ban đầu là để phản hồi về việc Meta phát hành các mô hình Llama có khả năng đầu tiên, nhanh chóng tạo ra nhiều nhánh được điều chỉnh cho vô số mục đích cụ thể. Vào thời điểm đó, các mô hình nguồn mở tương đương có xu hướng tụt hậu so với các mô hình nguồn đóng trên nhiều mặt trận và cần một số tháng để đạt được sự ngang bằng. Tuy nhiên, ngay cả khi đó, chữ viết tay đã ở trên tường. Ngày nay, trong thời đại của các mô hình AI tức thời và DeepSeek, lợi thế nhỏ về thời gian đưa ra thị trường đó đã thu hẹp lại còn 24 giờ. AI nguồn mở không chỉ đang chiến thắng mà còn phát triển nhanh đến mức Sam Altman đã công khai thừa nhận rằng ông có thể cần theo đuổi một chiến lược nguồn mở chặt chẽ hơn (Tôi để lịch cho bạn, Sam!).

Khi tôi viết vào tuần trước về DeepSeek và lý do tại sao AI nguồn mở sẽ chiến thắng trong cả ngắn hạn và dài hạn, tôi đã dự đoán rằng các phương pháp mà DeepSeek nêu bật sẽ dẫn đến làn sóng đổi mới nhanh chóng trong các mô hình AI. Ngay cả khi đó, các công ty đang nghiên cứu các phiên bản đáng tin cậy hơn và khả thi về mặt thương mại hơn của mô hình nền tảng R1 của DeepSeek khiến cổ phiếu lao dốc. Sau đó, OpenAI đã phát hành dịch vụ nghiên cứu nâng cao của riêng mình, Deep Research, vài ngày sau đó. Dịch vụ này kết hợp một LLM (có thể được chọn từ danh sách LLM hiện tại do OpenAI, 4o, o1, o3, v.v. cung cấp) và một “khung tác nhân” để hướng dẫn LLM cách sử dụng các công cụ như tìm kiếm trên web hoặc cách suy nghĩ thông qua việc sắp xếp quy trình của mình thành các bước hợp lý và sử dụng các công cụ như tìm kiếm trên web và sắp xếp các hành động của mình theo từng bước. Nó được thiết kế để thực hiện lý luận nâng cao, hoạt động như một nhà phân tích nghiên cứu và cung cấp các phân tích phức tạp về các dự án bao gồm hầu hết mọi chủ đề. Các chuyên gia AI như Ethan Mollick đã ca ngợi nó và nhiều người khác trực tuyến đang ca ngợi nó là công cụ tổng hợp tốt nhất mà họ từng thấy.

Một ngày sau, HuggingFace đã phát hành phiên bản nguồn mở của Deep Research, mặc dù chưa thể so sánh được nhưng khá gần. ( HuggingFace cũng đã đạt được tiến bộ trong việc tái tạo các phần còn thiếu của R1, chẳng hạn như tập dữ liệu và mã đào tạo). Deep Research chắc chắn đã được hưởng lợi từ dữ liệu, mô hình nền tảng và đào tạo của DeepSeek và đặc biệt là mô hình R1 của nó. Đó chính xác là lý do tại sao AI nguồn mở lại nhanh nhẹn và mạnh mẽ như vậy. (Hãy xem Nathan Lambert của AI2 nói gì về điều này). Không có hào nước theo thiết kế và nó làm nổi tất cả các con thuyền theo thiết kế. Trong khi đó, trong cộng đồng, năm đối thủ cạnh tranh Deep Research nguồn mở khác đã nổi lên (dzhng, assafelovic, nickscamara, jina-aimshume — cảm ơn HuggingFace đã tìm ra chúng). Vào thời điểm bạn đọc bài viết này, rất có thể nhiều nhà phát triển AI đã công bố các phiên bản mới hơn và được cải tiến hơn. Khả năng sao chép nhanh chóng các khả năng khiến nhiều người ngạc nhiên, nhưng không phải tôi. Đổi mới nguồn mở đã diễn ra nhanh hơn đáng kể so với đổi mới nguồn đóng trong nhiều thập kỷ nay. Chúng ta đã chứng kiến ​​điều này tại Linux Foundation khi phần mềm nguồn mở đã thống trị thế giới phần mềm. Nói rõ hơn, phần mềm nguồn mở không tự làm được gì cả. Nó chỉ là mã nguồn. Các nhà phát triển giỏi nhất thế giới, đóng góp và cộng tác trong một mô hình đánh giá ngang hàng khoa học, mở đã tạo ra phần mềm tốt hơn mà nhiều nhà phát triển khác đã chọn sử dụng vì phần mềm nguồn mở tốt hơn các giải pháp thay thế. Điểm mấu chốt của tất cả những điều này là gì? AI nguồn mở đang tăng tốc. Khả năng của cộng đồng trong việc nhanh chóng bắt kịp bất kỳ sự phát triển mới nào là sự xác nhận rõ ràng về tốc độ và sức mạnh của AI nguồn mở, được thúc đẩy bởi bộ não của một cộng đồng tài năng khổng lồ và đang phát triển trên toàn thế giới. Hơn nữa, việc giữ bất kỳ cải tiến AI nào bị khóa trong một cái chai sẽ là một thách thức vô cùng lớn. Những tiến bộ trong quá trình chưng cất mô hình - một quá trình mà một mô hình lớn hơn, phức tạp hơn được sử dụng để đào tạo một phiên bản nhỏ hơn, hiệu quả hơn - cho phép các nhà nghiên cứu phân tích các hệ thống AI có sẵn công khai hiệu quả hơn. Thông qua quá trình chưng cất, những hiểu biết sâu sắc về đào tạo quan trọng có thể được trích xuất, giúp khả thi để phát triển các mô hình tương đương hoặc thậm chí hiệu quả hơn. Khả năng này không chỉ đẩy nhanh quá trình nghiên cứu và phát triển mà còn mở rộng hệ sinh thái đổi mới bằng cách cho phép một cộng đồng rộng lớn hơn thử nghiệm và cải thiện các mô hình hiện có. DeepSeek đã sử dụng quá trình chưng cất để tăng cường khả năng suy luận của loạt mô hình Qwen và LLama, thực sự tăng cường hiệu suất của chúng trong các tác vụ suy luận. Gần như đúng lúc, một bài báo được công bố từ các nhà nghiên cứu Stanford trình bày một cách đơn giản để chuyển đổi LLM mở thành mô hình lý luận, chỉ sử dụng 26 phút thời gian đào tạo và tốn 30 đô la (rõ ràng, chi phí của mô hình cơ sở cao hơn nhiều). Bí quyết bí mật là gì? Cung cấp cho nó 1.000 ví dụ lý luận có cấu trúc tốt và mở rộng quy trình suy nghĩ của nó. Sử dụng phương pháp đơn giản này (và hiện đã được công khai), họ đã có thể gần như đạt được hiệu suất của GPT o1 trong các bài toán khớp nối.

Vì các khả năng AI cơ bản đang tăng tốc rất nhanh trong mã nguồn mở, nên giá trị sẽ tăng lên và chảy đến các nhà cung cấp có thể cung cấp bảo mật, tính dễ sử dụng và trải nghiệm tốt nhất cho nhà phát triển và người tiêu dùng. Đây nên được coi là một chiến thắng tuyệt vời. Chỉ một năm trước, nhiều người trong lĩnh vực công nghệ lo sợ rằng thế giới đang phân chia thành những người giàu GPU và những người nghèo GPU — những người có quyền truy cập vào AI mạnh mẽ và những người không có. Chúng ta có thể thấy rằng đó là một điểm gây tranh cãi và điều đó rất quan trọng. Quyền truy cập dân chủ vào các khả năng AI trên khắp các quốc gia, các công ty ở mọi quy mô và các tổ chức phi chính phủ sẽ là nền tảng cơ bản cho sự đổi mới trong nhiều năm tới, trên nhiều lĩnh vực. Mở ra những chiến thắng trong các công nghệ thúc đẩy lợi ích chung. Luôn luôn. Hãy kéo cầu xuống vì thủy triều đang dâng.

In May 2023, a memo from an unnamed Google AI engineer leaked and quickly made the rounds of the tech newsophere, racking up thousands of comments on Hacker News. The memo was titled “ We Have No Moat…And Neither Does OpenAI”. The gist of the post was this — stop focusing on building the next giant model and start working with the open source community because they will beat us in the end.

“We’ve done a lot of looking over our shoulders at OpenAI. Who will cross the next milestone? What will the next move be? But the uncomfortable truth is we aren’t positioned to win this arms race and neither is OpenAI. While we’ve been squabbling, a third faction has been quietly eating our lunch. I’m talking, of course, about open source. Plainly put, they are lapping us. Things we consider “major open problems” are solved and in people’s hands today.“

This post was initially in response to the release of the first capable Llama models by Meta, which quickly yielded numerous offshoots tuned for myriad specific purposes. Back then, comparable open source models tended to lag closed source models on a variety of fronts, and required a number of months to reach parity. However, the handwriting was on the wall even then. Today, in the age of Instant AI models and DeepSeek, that slight time-to-market advantage has shrunk to 24 hours. Open source AI is not only winning but it’s moving so fast that Sam Altman has publicly admitted he may need to pursue a more rigorous open source strategy (My calendar is open for you, Sam!). 

When I wrote last week about DeepSeek and why open source AI will win both in the short and long run, I predicted that the methods DeepSeek highlighted would lead to a wave of rapid innovation in AI models. Even then, companies were working on more reliable and commercially viable versions of DeepSeek’s R1 foundational model which sent stocks into a nosedive. Then, OpenAI released its own advanced research offering, Deep Research, a few days later. This combined an LLM (which can be selected from the current list of LLMs provided by OpenAI, 4o, o1, o3, etc.) and an “agentic framework” to instruct the LLM how to use tools like web searches or how to think through organizing its process into logical steps and to use tools like web search and organize its actions in steps.

It was designed to perform advanced reasoning, function like a research analyst, and deliver complex analyses on projects covering almost any topic. AI experts like Ethan Mollick raved about it, and many others online are singing its praises as the best general agentic tool they have seen. 

A day later, HuggingFace released an open source version of Deep Research that, while not yet comparable, was pretty close. (HuggingFace has also made progress towards recreating R1’s missing pieces, such as dataset, and training code). Deep Research undoubtedly benefitted from the data, foundational model and training of DeepSeek and its R1 model in particular. Which is exactly why open source AI is so nimble and powerful. (Check out what Nathan Lambert of AI2 has to say about this).  There are no moats by design, and it floats all boats by design.

Meanwhile, in the community, five other open source Deep Research competitors emerged (dzhng, assafelovic, nickscamara, jina-ai and mshumer — h/t to HuggingFace for finding them). By the time you read this, it’s entirely likely more AI developers have published newer and improved versions.  The fast replication of capabilities surprised many, but not me. Open source innovation has moved significantly faster than closed source innovation for decades now. We’ve witnessed this at the Linux Foundation as open source software has eaten the software world. To be clear, the open source software didn’t do anything itself. It’s just source code. The world’s best developers, contributing and collaborating in an open, scientific peer review-esque model produced better software that many other developers chose to use because the open source software was just better than alternatives.  

The bottom line of all this? Open source AI is accelerating. The ability of the community to quickly match any new development is clear validation of the velocity and power of open source AI, driven by the brains of a massive and growing community of talent all over the world. What’s more, keeping any AI innovation locked in a bottle is going to be incredibly challenging. Advances in model distillation—a process by which a larger, complex model is used to train a smaller, more efficient version—enable researchers to dissect publicly available AI systems more effectively. Through distillation, key training insights can be extracted, making it feasible to develop comparable or even more efficient models. This capability not only accelerates research and development but also broadens the ecosystem of innovation by allowing a wider community to experiment with and improve upon existing models. DeepSeek used distillation to enhance the reasoning capabilities of the Qwen and LLama series of models, effectively supercharging their performance on reasoning tasks. 

Almost on cue, a paper dropped from Stanford researchers demonstrating a simple way to transform an open LLM into a reasoning model, using only 26 minutes of training time and costing $30 (obviously, the cost of the base model was a lot more). The secret trick? Feeding it 1,000 well-structured reasoning examples and extending its thinking process. Using this simple  (and now publicly known) method, they were able to nearly match the performance of GPT o1 on match problems. 

Because foundational AI capabilities are accelerating so quickly in open source, the value will move up the stack and flow to providers who can deliver the best security, ease of use, and developer and consumer experiences. This should be viewed as an amazing victory. Only a year ago, many in the technology realm were fearful that the world was bifurcating into GPU richies and GPU poors — those who had access to powerful AI and those who didn’t. We can already see that’s a moot point and that’s important. Democratic access to AI capabilities across countries, companies of all sizes and NGOs will be a fundamental building block of innovation for many years to come, across many fields. Open wins in technologies that drive a shared benefit. Always. Pull down that drawbridge because the tide is rising.

Dịch: Lê Trung Nghĩa

letrungnghia.foss@gmail.com

 

Tác giả: Nghĩa Lê Trung

Tổng số điểm của bài viết là: 0 trong 0 đánh giá

Click để đánh giá bài viết

  Ý kiến bạn đọc

Những tin mới hơn

Những tin cũ hơn

Về Blog này

Blog này được chuyển đổi từ http://blog.yahoo.com/letrungnghia trên Yahoo Blog sang sử dụng NukeViet sau khi Yahoo Blog đóng cửa tại Việt Nam ngày 17/01/2013.Kể từ ngày 07/02/2013, thông tin trên Blog được cập nhật tiếp tục trở lại với sự hỗ trợ kỹ thuật và đặt chỗ hosting của nhóm phát triển...

Bài đọc nhiều nhất trong năm
Thăm dò ý kiến

Bạn quan tâm gì nhất ở mã nguồn mở?

Thống kê truy cập
  • Đang truy cập84
  • Máy chủ tìm kiếm5
  • Khách viếng thăm79
  • Hôm nay23,095
  • Tháng hiện tại574,979
  • Tổng lượt truy cập39,062,973
Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây