
في جملة واحدة
MiniMax-M2 هو نموذج لغوي كبير مفتوح المصدر (LLM) يتصدر نماذج الأوزان المفتوحة في الاستخدام الوكيلي للأدوات، جامعاً بين نتائج معيارية قوية وكفاءة في النشر وملاءمة للمؤسسات. بفضل ترخيص MIT، وتوافق واجهات البرمجة (API)، والتسعير المنخفض، يُعد خياراً عملياً لبناء أنظمة ذكاء اصطناعي مستقلة قابلة للتوسّع.
التفاصيل
أعلنت MiniMax عن نموذج MiniMax-M2، وهو نموذج لغوي كبير بأوزان مفتوحة (open-weight) يتصدر حالياً النماذج المفتوحة في المهام الوكيلية (agentic) مثل التخطيط، واستدعاء الأدوات (tool calling)، وتصفح الويب. يأتي بترخيص MIT المتساهل، ومتاح عبر Hugging Face وGitHub وModelScope، وكذلك عبر واجهة برمجة تطبيقات MiniMax (API). يدعم M2 صيغ واجهات برمجة التطبيقات (API) لكل من OpenAI وAnthropic لتمكين التضمين كبديل مباشر (drop-in). وتضعه اختبارات القياس المستقلة (benchmarking) من Artificial Analysis في المرتبة الأولى بين الأنظمة ذات الأوزان المفتوحة على مؤشر الذكاء (Intelligence Index)، فيما تبلغ MiniMax عن درجات وكيليّة قوية — τ²-Bench بمعدل 77.2 وBrowseComp بمعدل 44.0 وFinSearchComp-global بمعدل 65.5 — ما يضع النموذج على مقربة من الأنظمة المملوكة (proprietary) مثل GPT-5 (thinking) وClaude Sonnet 4.5.
يأتي MiniMax-M2 ببنية مزيج خبراء (Mixture-of-Experts, MoE) متناثرة تضم 230 مليار معلمة إجمالاً مع 10 مليارات معلمة فعّالة لكل استدلال (inference)، ما يجمع بين قدرة استدلال قوية وكفاءة في النشر. ووفقاً لـ Artificial Analysis، يمكن تشغيله على ما لا يقل عن أربع وحدات معالجة رسومية (GPU) من نوع NVIDIA H100 بدقة FP8. يدعم النموذج مسارات تفكير متداخلة واستدعاءات أدوات مُهيكلة لتمكين سير عمل وكيلي موثوق، وتوصي MiniMax باستخدام SGLang أو vLLM لتشغيله. حدّدت MiniMax تسعير الواجهة البرمجية (API) عند 0.30 دولار لكل مليون رمز إدخال و1.20 دولار لكل مليون رمز إخراج، ما يجعله خياراً فعالاً من حيث التكلفة للمؤسسات التي تبحث عن ذكاء اصطناعي مفتوح وقابل للتوسّع لتطبيقات مثل مساعدين للبرمجة، والأتمتة، والعمليات كثيفة البيانات.
النقاط الرئيسية
- MiniMax-M2 مُرخَّص بترخيص MIT (MIT License) ومتوافق مع صيغ واجهات برمجة التطبيقات (API) الخاصة بـ OpenAI/Anthropic، ما يسهّل اعتماد المؤسسات وعمليات الانتقال.
- يتصدر نماذج الأوزان المفتوحة (open-weight) على مؤشر الذكاء (Intelligence Index) من Artificial Analysis ويسجّل درجات وكيليّة قوية (τ²-Bench 77.2، BrowseComp 44.0، FinSearchComp-global 65.5).
- تصميم مزيج الخبراء (MoE): 230 مليار معلمة إجمالية مع 10 مليارات فعّالة لكل استدلال، ما يتيح زمناً أقل للاستجابة وتكلفة أدنى مع الحفاظ على قدرة استدلال قوية.
- قابل للتشغيل على أربع وحدات معالجة رسومية H100 (GPU) فقط بدقة FP8، مع توصية بالتشغيل عبر SGLang أو vLLM.
- تسعير تنافسي: 0.30 دولار لكل مليون رمز (MTok) للإدخال و1.20 دولار لكل مليون رمز (MTok) للإخراج، ما يجعله جذاباً لتطبيقات الوكلاء القائمة على الأدوات.
المصادر: 1