Top 10 open source LLMs for 2025. 7. Qwen1.5
Theo: https://www.instaclustr.com/education/open-source-ai/top-10-open-source-llms-for-2025/
Mô hình Ngôn ngữ Lớn - LLM (Large Language Model) là mô hình máy học có thể hiểu được và tạo ra ngôn ngữ con người dựa vào các tập dữ liệu phạm vi rộng.
7. Qwen1.5

Qwen1.5, được phát triển bởi nhà cung cấp dịch vụ đám mây Trung Quốc Alibaba Cloud, là bản cập nhật mới nhất trong dòng sản phẩm Qwen, cung cấp các mô hình cơ sở và mô hình trò chuyện với nhiều kích cỡ: 0.5B, 1.8B, 4B, 7B, 14B, 32B, 72B và 110B. Phiên bản này cũng bao gồm mô hình Hỗn hợp Chuyên gia (MoE). Tất cả các phiên bản đều là mã nguồn mở và có sẵn ở nhiều định dạng lượng tử hóa khác nhau để cải thiện khả năng sử dụng.
Thông tin dự án:
Giấy phép: Giấy phép nghiên cứu Tongyi Qianwen
GitHub stars: 6,3K
Người đóng góp: Đội ngũ Qwen
Nhà tài trợ chính: Alibaba Trung Quốc
Liên kết kho lưu trữ chính thức: https://github.com/QwenLM/Qwen2
Tính năng:
Phiên bản mô hình: Có sẵn ở các kích cỡ tham số từ 0.5B đến 110B, bao gồm mô hình Hỗn hợp Chuyên gia (MoE). Các phiên bản lượng tử hóa bao gồm các mô hình Int4, Int8, GPTQ, AWQ và GGUF.
Cửa sổ ngữ cảnh: Hỗ trợ ngữ cảnh lên đến 32K mã thông báo, hoạt động tốt trên chuẩn L-Eval, đo lường khả năng tạo ngữ cảnh dài.
Tích hợp: Mã của Qwen1.5 được tích hợp với Hugging Face Transformers (phiên bản 4.37.0 trở lên). Các mô hình này cũng được hỗ trợ bởi các nền tảng như vLLM, SGLang, AutoAWQ, AutoGPTQ, Axolotl và LLaMA-Factory để tinh chỉnh, và llama.cpp để suy luận cục bộ.
Hỗ trợ nền tảng: Có sẵn trên các nền tảng như Ollama, LMStudio và các dịch vụ API thông qua DashScope và together.ai.
Khả năng đa ngôn ngữ: Được đánh giá trên 12 ngôn ngữ, thể hiện hiệu suất mạnh mẽ trong các kỳ thi, bài tập hiểu, bài tập dịch và bài tập toán.
Về mục lục ………. Phần trước ………. Phần tiếp theo
Qwen1.5, developed by Chinese cloud service provider Alibaba Cloud, is the latest update in the Qwen series, offering base and chat models in a range of sizes: 0.5B, 1.8B, 4B, 7B, 14B, 32B, 72B, and 110B. It also includes a Mixture of Experts (MoE) model. All versions are open-sourced and available in various quantized formats to improve usability.
Project information:
License: Tongyi Qianwen research license
GitHub stars: 6.3K
Contributors: Qwen team
Main corporate sponsor: Alibaba China
Official repo link: https://github.com/QwenLM/Qwen2
Features:
Model versions: Available in sizes from 0.5B to 110B parameters, including a Mixture of Experts (MoE) model. Quantized versions include Int4, Int8, GPTQ, AWQ, and GGUF models.
Context window: Supports contexts up to 32K tokens, performing well on the L-Eval benchmark, which measures long-context generation capabilities.
Integration: Qwen1.5’s code is integrated with Hugging Face Transformers (version 4.37.0 and above). The models are also supported by frameworks like vLLM, SGLang, AutoAWQ, AutoGPTQ, Axolotl, and LLaMA-Factory for fine-tuning, and llama.cpp for local inference.
Platform support: Available on platforms such as Ollama, LMStudio, and API services via DashScope and together.ai.
Multilingual capabilities: Evaluated across 12 languages, demonstrating strong performance in exams, understanding, translation, and math tasks.
Dịch: Lê Trung Nghĩa
letrungnghia.foss@gmail.com
Tác giả: Nghĩa Lê Trung
Ý kiến bạn đọc
Những tin mới hơn
Những tin cũ hơn
Blog này được chuyển đổi từ http://blog.yahoo.com/letrungnghia trên Yahoo Blog sang sử dụng NukeViet sau khi Yahoo Blog đóng cửa tại Việt Nam ngày 17/01/2013.Kể từ ngày 07/02/2013, thông tin trên Blog được cập nhật tiếp tục trở lại với sự hỗ trợ kỹ thuật và đặt chỗ hosting của nhóm phát triển...
Các bài trình chiếu trong năm 2024
Tập huấn thực hành ‘Khai thác tài nguyên giáo dục mở’ cho giáo viên phổ thông, bao gồm cả giáo viên tiểu học và mầm non tới hết năm 2024
Các lớp tập huấn thực hành ‘Khai thác tài nguyên giáo dục mở’ tới hết năm 2024
Các tài liệu dịch sang tiếng Việt tới hết năm 2024
‘Digcomp 2.2: Khung năng lực số cho công dân - với các ví dụ mới về kiến thức, kỹ năng và thái độ’, EC xuất bản năm 2022
Tổng hợp các bài của Nhóm các Nhà cấp vốn Nghiên cứu Mở (ORFG) đã được dịch sang tiếng Việt
Tổng hợp các bài của Liên minh S (cOAlition S) đã được dịch sang tiếng Việt
Năm Khoa học Mở & Chuyển đổi sang Khoa học Mở - Tổng hợp các bài liên quan
Hội nghị Đối tác Dữ liệu Mở châu Á năm 2021 do Việt Nam lần đầu tiên chủ trì
Các khung năng lực trong hành động
Phong trào Bình dân học vụ số: Mục tiêu, đối tượng, nội dung, nguồn lực, phương thức tổ chức thực hiện
Lễ công bố công khai Trung tâm Năng lực Kim cương châu Âu và dự án ALMASI
Khung năng lực AI cho giáo viên
Ngày Phần mềm Tự do, Ngày Phần cứng tự do, Ngày Tài liệu Tự do
‘Khung năng lực AI cho giáo viên’ - bản dịch sang tiếng Việt
Bạn cần biết những gì về các khung năng lực AI mới của UNESCO cho học sinh và giáo viên
Bàn về 'Lợi thế của doanh nghiệp Việt là dữ liệu Việt, bài toán Việt' - bài phát biểu của Bộ trưởng Nguyễn Mạnh Hùng ngày 21/08/2025
Các tài liệu dịch sang tiếng Việt tới hết năm 2024
Các bài trình chiếu trong năm 2024
‘Tài liệu quan điểm của KR21 về Giữ lại Quyền Tác giả: Giữ lại các quyền trong kết quả đầu ra nghiên cứu để cho phép phổ biến mở kiến thức’ - bản dịch sang tiếng Việt
‘KHUYẾN NGHỊ VÀ HƯỚNG DẪN TRUY CẬP MỞ KIM CƯƠNG cho các cơ sở, nhà cấp vốn, nhà bảo trợ, nhà tài trợ, và nhà hoạch định chính sách’ - bản dịch sang tiếng Việt
DeepSeek đã gây ra sự hoảng loạn trên thị trường — nhưng một số người cho rằng việc bán tháo là quá mức
“Chúng tôi không có hào nước”: Sự đổi mới đột phá của AI nguồn mở
Tập huấn thực hành ‘Khai thác tài nguyên giáo dục mở’ cho giáo viên phổ thông, bao gồm cả giáo viên tiểu học và mầm non tới hết năm 2024
Ứng dụng và phát triển Tài nguyên Giáo dục Mở (OER) tại Việt Nam
Dữ liệu để phân loại AI
Nhà khoa học AI hàng đầu của Meta cho biết thành công của DeepSeek cho thấy 'các mô hình nguồn mở đang vượt trội hơn các mô hình độc quyền'
50 công cụ AI tốt nhất cho năm 2025 (Đã thử và kiểm nghiệm)
Mark Zuckerberg: DeepSeek cho thấy vì sao nước Mỹ phải là ‘tiêu chuẩn nguồn mở toàn cầu’ của AI; không có lý do gì để suy nghĩ lại về việc chi tiêu
‘Tầm quan trọng của các kỹ năng tư duy phản biện và linh hoạt về năng lực AI của sinh viên TVET’ - bản dịch sang tiếng Việt