دراسة من Meta تكشف أن تقليل خطوات الاستدلال في الذكاء الاصطناعي يؤدي إلى تحسينات كبيرة في الدقة والكفاءة

دراسة من Meta تكشف أن تقليل خطوات الاستدلال في الذكاء الاصطناعي يؤدي إلى تحسينات كبيرة في الدقة والكفاءة

توصل باحثون من فريق FAIR في Meta وجامعة القدس العبرية إلى اكتشاف لافت: يمكن لنماذج الذكاء الاصطناعي تحقيق نتائج أفضل من خلال تقليل عمليات الاستدلال. ووفقًا لدراستهم المنشورة مؤخرًا، عند استخدام النماذج اللغوية الكبيرة (LLMs) سلاسل استدلال أقصر وأكثر إيجازًا لحل المسائل المعقدة، ترتفع دقتها بشكل ملحوظ، لتصل أحيانًا إلى نسبة 34.5%. يضع هذا الاكتشاف موضع التساؤل الفكرة السائدة في مجتمع الذكاء الاصطناعي بأن سلاسل "التفكير" الأطول والأكثر تفصيلًا تؤدي بالضرورة إلى استدلالات أقوى.

تسلط الدراسة الضوء على منهجية جديدة تُدعى 'short-m@k'، حيث يُجري الذكاء الاصطناعي عمليات استدلال سريعة ومتوازية، ويتوقف عن الاستدلال عندما تنتهي بعض هذه العمليات، ثم يختار أفضل إجابة عبر التصويت بالأغلبية. لا تساهم هذه التقنية في تعزيز الأداء فقط، بل تخفض أيضًا تكاليف الحوسبة بنسبة قد تصل إلى 40%. وتشير النتائج إلى أنه من خلال جعل النماذج أكثر كفاءة وأقل عرضة لفرط التفكير، يمكن للمؤسسات تطوير حلول ذكاء اصطناعي أكثر ذكاءً وسرعة وفعالية من حيث التكلفة.

النقاط الرئيسية

  • سلاسل الاستدلال الأقصر تعزز دقة الذكاء الاصطناعي بنسبة تصل إلى 34% مقارنة بالسلاسل الأطول.
  • المنهجية الجديدة 'short-m@k' تقلل من التكاليف الحاسوبية بنسبة تصل إلى 40% مع الحفاظ على أو تحسين الأداء.
  • تدريب النماذج على أمثلة استدلال أقصر يوفر نتائج أفضل من تدريبها على أمثلة أطول.
  • في تحدٍ للاتجاه المتزايد نحو زيادة الحوسبة، تُظهر الدراسة أن الكفاءة والإيجاز يمكن أن يتفوقا على الأساليب القائمة على القوة الغاشمة.
  • المؤسسات التي تطبق هذه النتائج عند نشر نماذج الذكاء الاصطناعي يمكنها توفير ملايين الدولارات.

في جملة واحدة

تكشف أبحاث جديدة من Meta أن تقليص عمليات استدلال الذكاء الاصطناعي، بدلاً من زيادتها، يمكن أن يؤدي إلى دقة أعلى وتوفير كبير في التكاليف. تدريب النماذج على تجنب "فرط التفكير" قد يغير نهج الصناعة في معالجة المسائل المعقدة.

المصادر: 1

\