← Về nghiên cứu

Sự kiện

Ngày 12/02/2026, MiniMax-AI (Trung Quốc) phát hành MiniMax M2.5 — một model AI mã nguồn mở đạt hiệu năng ngang hàng Claude Opus 4.6 (model đắt nhất của Anthropic), nhưng rẻ hơn 20 lầnnhanh gấp 3 lần.

Bài viết của @askOkara trên X nhận 3.122 likes chỉ trong vài giờ: "China won. This is another DeepSeek moment."

Thông số kỹ thuật

Tiêu chí MiniMax M2.5 Claude Opus 4.6
Kiến trúc MoE 230B params, 10B active Dense (ước tính 300B+)
Tốc độ 100 tokens/s ~30 tokens/s
Context window 204K - 4M tokens 1M tokens
Giá $0.3/M in, $1.2/M out $6/M in, $24/M out
Mã nguồn Mở (MIT/Apache 2.0) Đóng
Hardware 4x H100 (FP8) Cloud API only
Training Agentic RL RLHF

Kiến trúc MoE — Bí quyết hiệu quả

M2.5 dùng Mixture-of-Experts (MoE): tổng 230 tỷ tham số nhưng chỉ kích hoạt 10 tỷ mỗi lần suy luận. Điều này giải thích:

  • Nhanh: Ít tham số active → tính toán ít hơn → 100 TPS
  • Rẻ: Ít compute → ít chi phí vận hành
  • Chạy được local: 4 GPU H100 là đủ (thay vì hàng trăm GPU cho model dense)

Benchmark — Ngang hàng hay thực sự vượt?

Điểm mạnh (ngang/vượt Opus):

  • SWE-Bench Verified: 80.2% — ngang Opus 4.6
  • BridgeBench: 59.7/60.1 — chỉ thua Opus 0.4 điểm, vượt GPT-5.2 (58.3)
  • Coding: SOTA trong coding, multi-file edits, agentic tasks
  • Document: Excel data analysis, document generation, summarization
  • IFBench, BrowseComp, Tau2 Bench: Điểm cao toàn diện

Điểm yếu (vẫn thua Opus):

  • LLMBase leaderboard: Opus adaptive vẫn hơn — Intelligence: 53 vs 42, Code: 48 vs 37
  • Reasoning sâu: Opus 4.6 vẫn mạnh hơn ở các bài toán logic phức tạp
  • Multilingual quality: Chưa rõ chất lượng tiếng Việt, Pali và các ngôn ngữ ít phổ biến

Kết luận benchmark: M2.5 đạt ~90-95% chất lượng Opus trên hầu hết tasks, nhưng với chi phí chỉ 5% của Opus. ROI vượt trội.

Phân tích nhân quả

Tại sao Trung Quốc liên tục tạo "DeepSeek moments"?

Nhân gốc — Chiến lược quốc gia:

  • Chip sanctions từ Mỹ buộc TQ tối ưu hoá phần mềm thay vì dựa vào hardware
  • MoE architecture là "cách của người nghèo" — tận dụng tối đa mỗi FLOP
  • Open-source là chiến lược phá vỡ monopoly: không thể cấm vận phần mềm miễn phí

Nhân gần — Kỹ thuật:

  • Agentic RL training: Train model trên real-world environments (không chỉ text)
  • MoE sparse activation: 230B knowledge nhưng chỉ dùng 10B mỗi lần → hiệu quả cực cao
  • Tối ưu inference: FP8 quantization, vLLM/SGLang support

Duyên — Thời điểm:

  • DeepSeek R1 (01/2025) đã chứng minh TQ có thể cạnh tranh
  • MiniMax M2.5 (02/2026) khẳng định đây không phải trường hợp cá biệt
  • Community open-source đã sẵn sàng: HuggingFace, llama.cpp, MLX

Tác động đến thị trường

Ngắn hạn:

  • Anthropic/OpenAI phải giảm giá hoặc mất khách enterprise quan tâm chi phí
  • Developer chuyển sang M2.5 cho coding agents (Cline CLI 2.0 đã tích hợp miễn phí)
  • Self-hosting trở thành option thực tế cho doanh nghiệp có GPU

Dài hạn:

  • Commoditization of intelligence: Khi model mở đạt 95% chất lượng model đóng, giá trị chuyển từ "model" sang "platform + data + workflow"
  • Anthropic/OpenAI phải cạnh tranh bằng ecosystem, trust, integration — không còn cạnh tranh bằng chất lượng model đơn thuần
  • AI democratization thực sự: Doanh nghiệp nhỏ có thể chạy model frontier trên hardware riêng

So sánh với DeepSeek moment (01/2025)

DeepSeek R1 (01/2025) MiniMax M2.5 (02/2026)
So sánh với GPT-4o Claude Opus 4.6
Rẻ hơn ~10x ~20x
Nhanh hơn ~2x ~3x
Mã nguồn Mở Mở
Kiến trúc MoE MoE
Phản ứng thị trường Nvidia mất $600B market cap Chưa rõ (mới 2 ngày)

Pattern rõ ràng: Mỗi 12-14 tháng, một lab TQ lại tung model mở ngang hàng model đóng tốt nhất, với chi phí thấp hơn 10-20 lần. Xu thế này sẽ không dừng lại.

Bài học

  1. Giá AI sẽ tiệm cận 0: Khi model mở đạt frontier, chi phí sử dụng AI sẽ giảm mạnh
  2. Sanctions thúc đẩy innovation: Hạn chế chip → buộc TQ sáng tạo trong phần mềm → lợi thế bất ngờ
  3. MoE là kiến trúc tương lai: Thay vì dense model ngày càng lớn, sparse MoE cho phép scale knowledge mà không scale compute
  4. Open-source đang thắng: DeepSeek, MiniMax, Qwen — các lab TQ chọn mở, trong khi OpenAI/Anthropic chọn đóng. Cuộc chiến chưa có kết quả cuối cùng, nhưng xu thế rõ ràng

Nguồn: X/Twitter (12-14/02/2026), @askOkara, @bridgemindai, @llmbase, @MiniMax_AI, HuggingFace