أطلقت أوبن إيه آي (OpenAI) مؤخرًا GPT-4.1، وهي عائلة جديدة من نماذج الذكاء الاصطناعي (AI models) التي تم الترويج لها لتحسين الأداء، خاصة في مهام البرمجة. ومع ذلك، على عكس إصدارات النماذج الرئيسية السابقة، وصل GPT-4.1 دون تقرير سلامة مصاحب، والذي يشار إليه غالبًا باسم بطاقة النظام (system card). تفصل هذه التقارير عادةً اختبارات السلامة التي تم إجراؤها والمخاطر المحتملة المرتبطة بنموذج الذكاء الاصطناعي الجديد.
صرحت الشركة بأن GPT-4.1 لا يعتبر 'نموذجًا رائدًا' (frontier model) وبالتالي لا يتطلب بطاقة نظام (system card) منفصلة. يأتي هذا القرار وسط اتجاه أوسع حيث يبدو أن مختبرات الذكاء الاصطناعي الرائدة تقلل من شفافية تقييمات السلامة الخاصة بها، وأحيانًا تؤخر التقارير أو تنشر تقارير أقل تفصيلاً. أثار هذا النقص في تقرير السلامة لـ GPT-4.1 انتقادات، خاصة بالنظر إلى التزامات أوبن إيه آي السابقة بالشفافية والمخاوف الأخيرة التي أثارها موظفون سابقون بشأن ممارسات السلامة في الشركة التي قد تتعرض للخطر بسبب الضغوط التنافسية.
النقاط الرئيسية
- أطلقت أوبن إيه آي عائلة نماذج الذكاء الاصطناعي (AI model) الجديدة GPT-4.1، مع التركيز على قدرات البرمجة المحسنة.
- على عكس الإصدارات المعتادة، لم يكن GPT-4.1 مصحوبًا بتقرير سلامة (بطاقة النظام - system card).
- بررت أوبن إيه آي ذلك بالقول إن GPT-4.1 ليس 'نموذجًا رائدًا' (frontier model).
- تتماشى هذه الخطوة مع اتجاه ملحوظ نحو تقليل شفافية تقارير السلامة في صناعة الذكاء الاصطناعي.
- يعرب النقاد والموظفون السابقون عن قلقهم من أن هذا النقص في التقارير يشير إلى تحول محتمل بعيدًا عن أولويات السلامة.
في جملة واحدة
أصدرت أوبن إيه آي نماذج GPT-4.1 الجديدة دون تقرير السلامة المعتاد، مشيرة إلى أنه ليس 'نموذجًا رائدًا' (frontier model)، مما يثير مخاوف بشأن الشفافية وممارسات السلامة في صناعة الذكاء الاصطناعي.
المصادر: 1