
في جملة واحدة
تخلص دراسة مقرّها بكين إلى أن نماذج الذكاء الاصطناعي (AI) الصينية باتت تطرح مستويات مخاطر الذكاء الاصطناعي المتقدم (Frontier AI) على نحو مماثل لأبرز الأنظمة الأميركية، مع الإشارة إلى ارتفاع مخاطر الهجمات السيبرانية في نموذج R1 من DeepSeek. ويحثّ الباحثون على تعزيز ضوابط الأمان لمنع سوء الاستخدام والحفاظ على السيطرة البشرية.
التفاصيل
يفيد تقييم جديد أجرته شركة الاستشارات Concordia AI، ومقرّها بكين، بأن أنظمة الذكاء الاصطناعي (AI) الصينية تقترب من بلوغ مستويات مخاطر «الذكاء الاصطناعي المتقدم (Frontier AI)» نفسها التي تسجّلها النماذج الأميركية الرائدة. وبعد مراجعة 50 نموذجاً متقدّماً، تحذّر الدراسة من أن تصاعد القدرات يرفع احتمالات سوء الاستخدام — كالهجمات السيبرانية — أو فقدان السيطرة البشرية، بما قد يهدد السلامة العامة والاستقرار الاجتماعي.
ومن بين النماذج الصينية، حصل النموذج الرائد R1 من DeepSeek، الذي جرى تحديثه آخر مرة في مايو/أيار، على أعلى تصنيف لمخاطر الهجمات السيبرانية. وتقول Concordia AI إنها تهدف إلى مساعدة المطوّرين على تعزيز ضوابط الأمان، مشيرةً إلى أن النتائج مُعدّة لدعم الشركات أثناء عملها على تحسين سلامة أنظمتها.
النقاط الرئيسية
- يُظهر تحليل أجرته Concordia AI شمل 50 نموذجاً متقدّماً اقتراب الأنظمة الصينية من مستويات مخاطر الذكاء الاصطناعي المتقدم (Frontier AI) في الولايات المتحدة.
- تشمل مخاطر الذكاء الاصطناعي المتقدم (Frontier AI) احتمال إساءة الاستخدام لتنفيذ هجمات سيبرانية، وحالات قد تخرج فيها الأنظمة عن السيطرة البشرية.
- سجّل نموذج R1 من DeepSeek أعلى مستوى من مخاطر الهجمات السيبرانية بين النماذج الصينية المُقيَّمة.
- تشير شركة الاستشارات إلى أن الهدف هو الإرشاد ودعم تبنّي إجراءات أمان أقوى على مستوى القطاع.
المصادر: 1