أطلقت DeepSeek نموذج V3.1 للذكاء الاصطناعي (AI) بدعم تنسيق بيانات مبتكر ضمن FP8 يُدعى UE8M0، في خطوة يقول محللون إنها قد تعزّز المنظومة المحلية لعتاد الذكاء الاصطناعي في الصين. وتصف مذكرات بحثية صادرة عن Huatai Securities النموذج بأنه يسهم في بناء سلسلة توريد مزدهرة للقدرة الحاسوبية المحلية، مع إبراز تكامل أوثق بين البرمجيات والرقائق المصممة محلياً.
يخفض FP8 دقة التمثيل العددي لتسريع التدريب والاستدلال، مع تقليص احتياجات الذاكرة وعرض النطاق الترددي. ويُقال إن UE8M0، وهو متغير بدقة 8 بت يُستخدم في V3.1، يرفع كفاءة التدريب ويقلل استهلاك الذاكرة بما يصل إلى 75%، ما قد يخفض متطلبات العتاد. ووصفت Haitong Securities تنسيق البيانات في V3.1 بأنه ركيزة أساسية لبناء منظومة ذكاء اصطناعي مستقلة وقابلة للتحكم — خطوة مهمة بينما تسعى الصين إلى تحقيق الاكتفاء الذاتي التقني في ظل قيود التصدير الأميركية واستمرار التوترات الجيوسياسية.
النقاط الرئيسية
- يدعم V3.1 من DeepSeek تنسيق UE8M0 ضمن FP8 المصمم لتحسين الكفاءة في التدريب والاستدلال بالذكاء الاصطناعي.
- يرى محللو Huatai وHaitong أن النموذج يعزّز منظومة الحوسبة والرقائق المحلية للذكاء الاصطناعي في الصين.
- يقلّل FP8 الدقة العددية لتوفير الذاكرة وعرض النطاق الترددي، وقد يخفض UE8M0 استخدام الذاكرة بما يصل إلى 75%.
- تقليل احتياجات الذاكرة قد يترجم إلى متطلبات وتكاليف عتاد أدنى.
- يتماشى هذا التطور مع مسعى الصين الأوسع إلى الاكتفاء الذاتي التقني في ظل قيود التصدير.
في جملة واحدة
يرى محللون أن V3.1 من DeepSeek، باستخدام UE8M0 ضمن FP8، قد يدعم منظومة ذكاء اصطناعي أكثر اعتماداً على الذات في الصين عبر رفع كفاءة التدريب وتقليل متطلبات العتاد. وتنسجم الخطوة مع جهود أوسع للتخفيف من قيود التصدير وبناء قدرات حوسبة محلية.
المصادر: 1