ديب سيك تطرح نماذج ذكاء اصطناعي مفتوحة المصدر بمستوى GPT‑5 مع مكاسب كبيرة في التكلفة والأداء

ديب سيك تطرح نماذج ذكاء اصطناعي مفتوحة المصدر بمستوى GPT‑5 مع مكاسب كبيرة في التكلفة والأداء

في جملة واحدة

نماذج V3.2 المفتوحة المصدر من ديب سيك تنافس أبرز الأنظمة الأميركية، مع خفض حاد لتكاليف السياق الطويل بفضل الانتباه المتناثر (Sparse Attention). نتائج قوية وميزات عملية لاستخدام الأدوات تعزّز حدّة المنافسة رغم تنامي التدقيق التنظيمي.

التفاصيل

أطلقت الشركة الناشئة الصينية ديب سيك (DeepSeek) نموذجين متقدّمين — DeepSeek‑V3.2 وDeepSeek‑V3.2‑Speciale — مع ادعاء تحقيق أداء يماثل أو يتجاوز GPT‑5 من OpenAI وGemini‑3.0‑Pro من Google. تضم النماذج 685 مليار مُعامل (parameters) وتوفّر نوافذ سياق بطول 128,000 رمز (tokens). وهي مفتوحة المصدر بالكامل بموجب ترخيص MIT، مع إتاحة الأوزان (weights) والشيفرة (code) على Hugging Face. سجل إصدار Speciale نتائج استثنائية في أبرز المسابقات، بما في ذلك أداء بمستوى الميدالية الذهبية في الأولمبياد الدولي للرياضيات والأولمبياد الدولي للمعلوماتية، فيما حقق نموذج V3.2 القياسي درجات تنافسية في AIME وHMMT ومعايير القياس الخاصة بالترميز (benchmarks).

ومن أبرز الابتكارات «انتباه ديب سيك المتناثر» DeepSeek Sparse Attention (DSA)، الذي يخفض كلفة الحوسبة للمدخلات الطويلة عبر التركيز على السياق الأكثر صلة، ما يقلّص تكاليف فكّ الترميز (decoding) عند سياق 128k من نحو 2.40 دولار إلى قرابة 0.70 دولار لكل مليون رمز (tokens). كما يدعم V3.2 «التفكير أثناء استخدام الأدوات» (tool‑use)، محافظاً على سلسلة التفكير (chain‑of‑thought) عبر استدعاءات متعددة للأدوات (tool calls). وتتحدّى هذه الإصدارات نماذج الأعمال المعتمِدة على النماذج المغلقة وافتراضات ضوابط التصدير (export controls)، رغم تصاعد تدقيق الجهات التنظيمية في أوروبا والولايات المتحدة. وتقول ديب سيك إن Speciale سيكون متاحاً عبر واجهة برمجة تطبيقات (API) مؤقتة حتى 15 ديسمبر، لتُدمَج قدراته بعدها في الخط الرئيسي V3.2.

النقاط الرئيسية

  • نموذجان مفتوحا المصدر: DeepSeek‑V3.2 (استدلال عام + استخدام الأدوات (tool‑use)) وDeepSeek‑V3.2‑Speciale (استدلال عميق)، وكلاهما مُتاح بموجب ترخيص MIT مع الأوزان الكاملة (weights) على Hugging Face.
  • انتباه ديب سيك المتناثر DeepSeek Sparse Attention (DSA) يقلّص تكاليف السياق الطويل؛ إذ تنخفض تكلفة فكّ الترميز (decoding) عند سياق 128k إلى نحو 0.70 دولار لكل مليون رمز (tokens) مقابل نحو 2.40 دولار في V3.1، مع الحفاظ على الأداء.
  • أبرز النتائج على معايير القياس (benchmarks): حقق Speciale أداءً بمستوى ذهبية IMO (35/42) وذهبية IOI (492/600) وحلّ 10 من أصل 12 مسألة في نهائيات العالم لـ ICPC؛ فيما حقق V3.2 نسبة 93.1% على AIME وتصدّر Terminal Bench 2.0 بنسبة 46.4% (مقابل GPT‑5‑High بنسبة 35.2%).
  • ميزة «التفكير أثناء استخدام الأدوات» (tool‑use) تُبقي الاستدلال متماسكاً عبر استدعاءات متعددة للأدوات (tool calls)؛ وقد شمل التدريب أكثر من 1,800 بيئة مهام وأكثر من 85 ألف تعليمة معقّدة للتعميم عبر الأدوات.
  • يتصاعد الضغط التنظيمي (إجراءات في ألمانيا وإيطاليا وحظر على الأجهزة الحكومية في الولايات المتحدة)، لكن ضوابط التصدير (export controls) لم تُوقِف تقدّم ديب سيك؛ يتوفر Speciale عبر واجهة برمجة تطبيقات (API) مؤقتة ومن دون دعم لاستدعاء الأدوات، على أن تُدمَج قدراته في V3.2 بعد 15 ديسمبر.

المصادر: 1

\