كشفت علي بابا كلاود عن Qwen3-Next-80B-A3B، وهو نموذج لغوي كبير مُحسَّن تصفه بأنه 'مستقبل النماذج اللغوية الكبيرة عالية الكفاءة (LLMs)'. ورغم أنه أصغر بنحو 13 مرة من أكبر نموذج أعلنت عنه الشركة قبل أسبوع واحد فقط، يُقال إن النظام الجديد يوازي أداء أسلافه الأكبر حجماً. ويؤكد مطوّرو علي بابا أنه يمكن أن يعمل بسرعة تصل إلى عشرة أضعاف في بعض المهام مقارنةً بنموذج Qwen3-32B الذي أُطلق في أبريل، مع خفض تكاليف التدريب بنحو 90% مقارنةً بذلك النموذج.
تُبرز ردود الفعل المبكرة هذا التقدّم الكبير في خفض التكاليف. فقد ذكر الشريك المؤسس لـ Stability AI عماد موستاك على منصة X أن النموذج يتفوق على 'معظم نماذج العام الماضي تقريباً' مع فاتورة تدريب تقديرية تقل عن 500 ألف دولار أمريكي — وهو أقل بكثير من التقدير البالغ 191 مليون دولار أمريكي المطلوب لتدريب Gemini Ultra من غوغل، وفق مؤشر الذكاء الاصطناعي لستانفورد (Stanford AI Index). كما تفيد شركة القياسات المعيارية Artificial Analysis بأن Qwen3-Next-80B-A3B يتجاوز الإصدارات الحديثة من DeepSeek R1 وKimi-K2 التابعة لشركة Moonshot AI. (إفصاح: تمتلك علي بابا صحيفة South China Morning Post التي نشرت هذه التفاصيل.)
النقاط الرئيسية
- Qwen3-Next-80B-A3B أصغر بنحو 13 مرة من أحدث نموذج ضخم لعلي بابا، مع استهداف أداء مماثل.
- تقول علي بابا إنه أسرع بما يصل إلى عشرة أضعاف في بعض المهام من Qwen3-32B وأقل تكلفةً في التدريب بنحو 90%.
- يُقدّر عماد موستاك تكاليف التدريب بأقل من 500 ألف دولار أمريكي، مقارنةً بـ 191 مليون دولار لتدريب Gemini Ultra (Stanford AI Index).
- تشير تقييمات شركة Artificial Analysis إلى أن النموذج يتقدّم على DeepSeek R1 وKimi-K2 التابعة لـ Moonshot AI في اختبارات القياس.
- يُبرز الإعلان تصاعد التركيز على الكفاءة مع ارتفاع تكاليف تدريب نماذج الذكاء الاصطناعي (AI).
في جملة واحدة
يجمع Qwen3-Next-80B-A3B من علي بابا بين أداء النماذج الكبيرة وحجم أصغر وكلفة أقل. وتشير الاختبارات المبكرة وتعليقات الخبراء إلى خطوة مهمة نحو ذكاء اصطناعي عالي الكفاءة.
المصادر: 1