جيت براينز تطلق نموذج الذكاء الاصطناعي مفتوح المصدر Mellum لإكمال الشيفرة البرمجية

جيت براينز تطلق نموذج الذكاء الاصطناعي مفتوح المصدر Mellum لإكمال الشيفرة البرمجية

أعلنت شركة جيت براينز (JetBrains)، المعروفة بأدواتها الرائدة للمطورين، عن إتاحة نموذجها للترميز بالذكاء الاصطناعي Mellum كمشروع مفتوح المصدر. بعد أن كان استخدامه مقتصرًا في السابق على حزمة برمجياتها، أصبح Mellum متاحًا الآن للجميع على منصة Hugging Face بموجب ترخيص أباتشي 2.0 (Apache 2.0) المتساهل. هذا النموذج، الذي يحتوي على 4 مليارات مُعامل (parameter)، تم تدريبه على مجموعة بيانات ضخمة تضم أكثر من 4 تريليونات رمز مميز (token)، تشمل شيفرات مصدرية من منصة GitHub ونصوصًا من موسوعة ويكيبيديا. يهدف النموذج إلى مساعدة المطورين في عملية إكمال الشيفرة البرمجية (code completion) عبر اقتراح مقاطع برمجية بناءً على السياق الحالي.

تم تصميم Mellum ليتكامل بسلاسة مع بيئات التطوير المتكاملة (IDEs) ومساعدي البرمجة المعتمدين على الذكاء الاصطناعي، بهدف تعزيز إنتاجية المطورين. ومع ذلك، يتطلب النموذج الأساسي عملية ضبط دقيق (fine-tuning) لتهيئته للاستخدام الفعلي، مع أن جيت براينز تقدم بعض النماذج المُعدّة مسبقًا والمضبوطة بلغة بايثون (Python) لأغراض التجريب. وتقر الشركة المطورة بأن Mellum، شأنه شأن العديد من نماذج الذكاء الاصطناعي المدربة على بيانات عامة، قد يعكس التحيزات الموجودة في بيانات التدريب، وأن الشيفرات المقترحة التي يولدها قد لا تكون آمنة تمامًا أو خالية من الثغرات الأمنية دائمًا، مما يؤكد على التحديات الأمنية المستمرة المرتبطة بالشيفرات البرمجية المولدة بواسطة الذكاء الاصطناعي.

النقاط الرئيسية

    • جيت براينز تتيح نموذجها للبرمجة بالذكاء الاصطناعي Mellum مفتوح المصدر، والذي يحتوي على 4 مليارات مُعامل.
    • صُمم Mellum خصيصًا لمهام إكمال الشيفرة البرمجية (code completion) ضمن أدوات التطوير.
    • النموذج متوفر على منصة Hugging Face بموجب ترخيص أباتشي 2.0 (Apache 2.0).
    • النموذج الأساسي لـ Mellum يتطلب ضبطًا دقيقًا (fine-tuning) قبل الاستخدام؛ تتوفر نماذج تجريبية مضبوطة مسبقًا بلغة بايثون.
    • من التحديات المحتملة: عكس التحيزات الموجودة في بيانات التدريب وتوليد شيفرات برمجية قد تكون غير آمنة.

في جملة واحدة

أطلقت جيت براينز نموذجها مفتوح المصدر Mellum، وهو نموذج ذكاء اصطناعي يضم 4 مليارات مُعامل ومُخصص لإكمال الشيفرة البرمجية. أُتيح النموذج الآن على منصة Hugging Face ليتمكن المطورون من استخدامه وتجريبه، مع الإشارة إلى ضرورة إجراء الضبط الدقيق (fine-tuning) قبل الاستخدام الفعلي.

المصادر: 1

\