حذّرت شركة الذكاء الاصطناعي (AI) الصينية الناشئة DeepSeek من أن نماذجها مفتوحة المصدر (open-source) عُرضة على نحوٍ خاص لمحاولات كسر القيود (jailbreak) من قِبل جهات خبيثة. وفي مقالة محكَّمة نُشرت في مجلة Nature، أوضحت الشركة، التي تتخذ من هانغتشو مقرًا لها، كيفية تقييمها لهذه المخاطر باستخدام معايير قياسية معتمدة في الصناعة (benchmarks) إلى جانب اختبارات داخلية.
وبينما نشرت شركات أميركية مثل Anthropic وOpenAI أطرًا لتقييم المخاطر (risk frameworks) على الملأ، اتسمت الشركات الصينية عمومًا بقدر أكبر من التحفّظ، رغم أن نماذجها لا تتأخر سوى بأشهر قليلة عن نظيراتها الأميركية. وتقدّم ورقة DeepSeek قدرًا أعلى من الشفافية، بما في ذلك اختبارات الفريق الأحمر (red-team) المستندة إلى إطار عمل Anthropic، حيث يحاول المختبِرون دفع النماذج لإنتاج مخرجات ضارة، وهي نقطة سلّط عليها الضوء فانغ ليانغ من تحالف صناعة الذكاء الاصطناعي في الصين.
النقاط الرئيسية
- ترى DeepSeek أن النماذج مفتوحة المصدر (open-source) أكثر عرضة لمحاولات كسر القيود (jailbreak) من قِبل جهات خبيثة.
- فصّلت الشركة تقييماتها في ورقة محكَّمة في Nature مستخدمةً معايير قياسية (benchmarks) واختبارات داخلية.
- تشمل المنهجية اختبارات الفريق الأحمر (red-team) المستوحاة من إطار Anthropic لاستكشاف المخرجات الضارة.
- تمثّل هذه الخطوة خروجًا عن نهج التحفّظ السائد في الإفصاح عن المخاطر في الصين وتشير إلى تزايد الشفافية.
- يشير خبراء إلى أن النماذج الصينية تتأخر عن نظيراتها الأميركية بأشهر قليلة فقط، ما يعزّز إلحاحية العمل على السلامة.
في جملة واحدة
كشفت DeepSeek علنًا عن مخاطر كسر القيود (jailbreak) في نماذجها مفتوحة المصدر (open-source) وعن اختبارات السلامة التي أجرتها، وذلك في ورقة محكَّمة بمجلة Nature. يشير نهج الفريق الأحمر (red-team) ومستوى الشفافية إلى تحول في مشهد الإفصاح عن مخاطر الذكاء الاصطناعي (AI) في الصين.
المصادر: 1