
في جملة واحدة
يقترح «التعلّم المتداخل (Nested Learning)» من Google مقاربة تُمكّن الذكاء الاصطناعي من ترسيخ ذكريات أطول أمداً عبر تحسين مكوّنات مختلفة بوتيرات زمنية متباينة. ويُظهر نموذج Hope مكاسب مبكرة في نمذجة اللغة والمهام طويلة السياق، مع احتمال أن يتطلّب التبنّي الأوسع إعادة النظر في البنية التحتية الحالية للذكاء الاصطناعي.
التفاصيل
أحد أبرز قيود الذكاء الاصطناعي اليوم أن النماذج اللغوية الضخمة (Large Language Models) لا تستطيع تحديث معرفتها الأساسية بعد انتهاء التدريب؛ إذ لا تعتمد إلا على ما يَرِد في المُحفِّز (Prompt)، وهذه الذاكرة القصيرة الأمد تزول بمجرد إعادة ضبط نافذة السياق (Context Window). يقترح باحثو Google تصوراً جديداً يُسمّى «التعلّم المتداخل (Nested Learning)»، يتعامل مع النموذج بوصفه مكدساً من مسائل تحسين مترابطة ومتعددة المستويات تُحدَّث بوتيرات زمنية مختلفة، على غرار أنظمة الذاكرة التي تعمل عبر مقاييس زمنية متباينة. يحوّل هذا التصميم التعلّم إلى بناء ذكريات ترابطية قابلة للترسيخ بمرور الوقت، بدلاً من الاعتماد حصراً على الأوزان الساكنة (Static Weights) والمحفّزات (Prompts) العابرة.
ولإثبات الفكرة، بنى الفريق نموذج Hope، وهو بنية معمارية ذاتية التعديل (Self-modifying Architecture) مزوّدة بنظام ذاكرة مستمرة (Continuum Memory System - CMS) يعمل كسلسلة من بنوك ذاكرة، حيث يُحدِّث كل بنكٍ نفسه وفق وتيرته الخاصة. تُظهر التجارب المبكرة أن Hope يحقق قيماً أدنى في الحيرة (Perplexity) ودقة (Accuracy) أعلى من المحوِّلات القياسية (Transformers) والنماذج العودية الحديثة (Recurrent Models)، كما يتفوّق في مهام «إبرة في كومة قش» (Needle-in-Haystack) طويلة السياق. وبرغم ما تبعث عليه النتائج من تفاؤل، قد يتطلّب التبنّي واسع النطاق إدخال تغييرات في طبقات العتاد والبرمجيات المُحسّنة للمحوِّلات السائدة اليوم. وإذا نجح هذا النهج، فقد يتيح «التعلّم المتداخل (Nested Learning)» أنظمة ذكاء اصطناعي أكثر قدرة على التكيّف تتعلّم باستمرار من التفاعل مع العالم الواقعي.
النقاط الرئيسية
- يعيد «التعلّم المتداخل (Nested Learning)» صياغة التدريب بوصفه تحسيناً متداخلاً متعدّد المستويات، بما يتيح ترسيخ الذاكرة والتعلّم عبر مقاييس زمنية مختلفة.
- يطبّق Hope هذا التصوّر عبر نظام ذاكرة مستمرة (Continuum Memory System - CMS) يستخدم بنوك ذاكرة تُحدَّث بوتيرات متباينة.
- تُظهر النتائج الأولية قيماً أدنى للحيرة (Perplexity)، ودقة (Accuracy) أعلى، واسترجاعاً أقوى في السياقات الطويلة مقارنةً بخطوط أساس المحوِّلات (Transformers) والنماذج العودية (Recurrent Models).
- قد يتطلّب توسيع هذا النهج أدوات وبنية تحتية جديدة، إذ إن طبقات الذكاء الاصطناعي الحالية مضبوطة لسير عمل المحوِّلات الكلاسيكية (Transformers).
المصادر: 1