Sự kiện
Ngày 12/02/2026, MiniMax-AI (Trung Quốc) phát hành MiniMax M2.5 — một model AI mã nguồn mở đạt hiệu năng ngang hàng Claude Opus 4.6 (model đắt nhất của Anthropic), nhưng rẻ hơn 20 lần và nhanh gấp 3 lần.
Bài viết của @askOkara trên X nhận 3.122 likes chỉ trong vài giờ: "China won. This is another DeepSeek moment."
Thông số kỹ thuật
| Tiêu chí | MiniMax M2.5 | Claude Opus 4.6 |
|---|---|---|
| Kiến trúc | MoE 230B params, 10B active | Dense (ước tính 300B+) |
| Tốc độ | 100 tokens/s | ~30 tokens/s |
| Context window | 204K - 4M tokens | 1M tokens |
| Giá | $0.3/M in, $1.2/M out | $6/M in, $24/M out |
| Mã nguồn | Mở (MIT/Apache 2.0) | Đóng |
| Hardware | 4x H100 (FP8) | Cloud API only |
| Training | Agentic RL | RLHF |
Kiến trúc MoE — Bí quyết hiệu quả
M2.5 dùng Mixture-of-Experts (MoE): tổng 230 tỷ tham số nhưng chỉ kích hoạt 10 tỷ mỗi lần suy luận. Điều này giải thích:
- Nhanh: Ít tham số active → tính toán ít hơn → 100 TPS
- Rẻ: Ít compute → ít chi phí vận hành
- Chạy được local: 4 GPU H100 là đủ (thay vì hàng trăm GPU cho model dense)
Benchmark — Ngang hàng hay thực sự vượt?
Điểm mạnh (ngang/vượt Opus):
- SWE-Bench Verified: 80.2% — ngang Opus 4.6
- BridgeBench: 59.7/60.1 — chỉ thua Opus 0.4 điểm, vượt GPT-5.2 (58.3)
- Coding: SOTA trong coding, multi-file edits, agentic tasks
- Document: Excel data analysis, document generation, summarization
- IFBench, BrowseComp, Tau2 Bench: Điểm cao toàn diện
Điểm yếu (vẫn thua Opus):
- LLMBase leaderboard: Opus adaptive vẫn hơn — Intelligence: 53 vs 42, Code: 48 vs 37
- Reasoning sâu: Opus 4.6 vẫn mạnh hơn ở các bài toán logic phức tạp
- Multilingual quality: Chưa rõ chất lượng tiếng Việt, Pali và các ngôn ngữ ít phổ biến
Kết luận benchmark: M2.5 đạt ~90-95% chất lượng Opus trên hầu hết tasks, nhưng với chi phí chỉ 5% của Opus. ROI vượt trội.
Phân tích nhân quả
Tại sao Trung Quốc liên tục tạo "DeepSeek moments"?
Nhân gốc — Chiến lược quốc gia:
- Chip sanctions từ Mỹ buộc TQ tối ưu hoá phần mềm thay vì dựa vào hardware
- MoE architecture là "cách của người nghèo" — tận dụng tối đa mỗi FLOP
- Open-source là chiến lược phá vỡ monopoly: không thể cấm vận phần mềm miễn phí
Nhân gần — Kỹ thuật:
- Agentic RL training: Train model trên real-world environments (không chỉ text)
- MoE sparse activation: 230B knowledge nhưng chỉ dùng 10B mỗi lần → hiệu quả cực cao
- Tối ưu inference: FP8 quantization, vLLM/SGLang support
Duyên — Thời điểm:
- DeepSeek R1 (01/2025) đã chứng minh TQ có thể cạnh tranh
- MiniMax M2.5 (02/2026) khẳng định đây không phải trường hợp cá biệt
- Community open-source đã sẵn sàng: HuggingFace, llama.cpp, MLX
Tác động đến thị trường
Ngắn hạn:
- Anthropic/OpenAI phải giảm giá hoặc mất khách enterprise quan tâm chi phí
- Developer chuyển sang M2.5 cho coding agents (Cline CLI 2.0 đã tích hợp miễn phí)
- Self-hosting trở thành option thực tế cho doanh nghiệp có GPU
Dài hạn:
- Commoditization of intelligence: Khi model mở đạt 95% chất lượng model đóng, giá trị chuyển từ "model" sang "platform + data + workflow"
- Anthropic/OpenAI phải cạnh tranh bằng ecosystem, trust, integration — không còn cạnh tranh bằng chất lượng model đơn thuần
- AI democratization thực sự: Doanh nghiệp nhỏ có thể chạy model frontier trên hardware riêng
So sánh với DeepSeek moment (01/2025)
| DeepSeek R1 (01/2025) | MiniMax M2.5 (02/2026) | |
|---|---|---|
| So sánh với | GPT-4o | Claude Opus 4.6 |
| Rẻ hơn | ~10x | ~20x |
| Nhanh hơn | ~2x | ~3x |
| Mã nguồn | Mở | Mở |
| Kiến trúc | MoE | MoE |
| Phản ứng thị trường | Nvidia mất $600B market cap | Chưa rõ (mới 2 ngày) |
Pattern rõ ràng: Mỗi 12-14 tháng, một lab TQ lại tung model mở ngang hàng model đóng tốt nhất, với chi phí thấp hơn 10-20 lần. Xu thế này sẽ không dừng lại.
Bài học
- Giá AI sẽ tiệm cận 0: Khi model mở đạt frontier, chi phí sử dụng AI sẽ giảm mạnh
- Sanctions thúc đẩy innovation: Hạn chế chip → buộc TQ sáng tạo trong phần mềm → lợi thế bất ngờ
- MoE là kiến trúc tương lai: Thay vì dense model ngày càng lớn, sparse MoE cho phép scale knowledge mà không scale compute
- Open-source đang thắng: DeepSeek, MiniMax, Qwen — các lab TQ chọn mở, trong khi OpenAI/Anthropic chọn đóng. Cuộc chiến chưa có kết quả cuối cùng, nhưng xu thế rõ ràng
Nguồn: X/Twitter (12-14/02/2026), @askOkara, @bridgemindai, @llmbase, @MiniMax_AI, HuggingFace