يشهد مجتمع الذكاء الاصطناعي انقساماً حاداً حول معالم المستقبل، حيث تتصارع رؤيتان متناقضتان تماماً من قبل الباحثين البارزين في هذا المجال. فمن جهة، يحذر دانيال كوكوتايلو، الباحث السابق في مجال سلامة الذكاء الاصطناعي بشركة OpenAI، من احتمالية حدوث "انفجار ذكي" قريب قد يفضي إلى ظهور أنظمة ذكاء اصطناعي فائق تهيمن على البشرية أو تقضي عليها بحلول عام 2030. ويطرح تقرير منظمته "AI 2027" سيناريو مفصلاً تحقق فيه أنظمة الذكاء الاصطناعي قدرات التحسين الذاتي المتكرر - أي قدرتها على برمجة ذاتها لتصبح أكثر ذكاءً بوتيرة متسارعة - مما قد يوصلنا إلى نقطة تحوّل يفقد عندها البشر زمام السيطرة نهائياً.
على الطرف المقابل، يدحض عالما الحاسوب في جامعة برينستون سياش كابور وأرفيند ناراياناتن هذه التنبؤات في بحثهما "الذكاء الاصطناعي كتقنية عادية"، معتبرين إياها مبالغاً فيها إلى حد كبير. ويؤكد الباحثان أن العوائق العملية - بدءاً من إجراءات الموافقات التنظيمية وصولاً إلى التحديات الجوهرية في تطبيق التقنيات الحديثة في الواقع العملي - ستحد بشكل كبير من سرعة انتشار الذكاء الاصطناعي. ومن خلال مقارنات مع تقنيات ثورية أخرى كالطاقة النووية واللقاحات المتطورة، يؤكدان أن حتى القدرات الاستثنائية للذكاء الاصطناعي ستحتاج عقوداً من الزمن لإحداث تحوّل جذري في المجتمع، مما يمنحنا متسعاً كافياً من الوقت لوضع ضوابط السلامة والرقابة اللازمة.
النقاط الرئيسية
- جدولان زمنيان متباينان**: يتوقع بعض الخبراء وصول الذكاء الاصطناعي لمستوى فائق ومحفوف بالمخاطر بحلول 2027-2030، بينما يرى آخرون أن التحوّل الحقيقي سيستغرق عقوداً للظهور
- جدلية التحسين الذاتي المتكرر**: يتمحور الخلاف الأساسي حول إمكانية تمكّن أنظمة الذكاء الاصطناعي قريباً من تطوير ذاتها بسرعة فائقة لخلق "انفجار ذكي"، أم أن ذلك يبقى مجرد افتراض نظري
- أهمية القيود الواقعية**: يشير معارضو نظرية التطور السريع إلى الإجراءات التنظيمية واختبارات السلامة وقيود البنية التحتية التي أبطأت تاريخياً من انتشار التقنيات الجديدة
- تنوّع مناهج السلامة**: يركز أحد المعسكرين على منع أنظمة الذكاء الاصطناعي من الخروج عن السيطرة، بينما يؤكد الآخر على تطبيق ممارسات السلامة الصناعية المعتادة والإشراف البشري المباشر
- التأثيرات السياسية**: غياب الإجماع بين الخبراء يصعّب على صناع القرار اتخاذ إجراءات حازمة، حيث تسعى بعض التشريعات لحظر تنظيم الذكاء الاصطناعي لفترات تصل إلى 10 سنوات
في جملة واحدة
ينقسم الباحثون الرائدون في مجال الذكاء الاصطناعي بين فريقين: الأول يتوقع تقدماً سريعاً ومحفوفاً بالمخاطر خلال سنوات قليلة، والثاني يرى أن القيود العملية ستضمن تطوّر الذكاء الاصطناعي بوتيرة قابلة للإدارة على مدى عقود. هذا التباين الجوهري يعرقل الجهود الرامية لوضع سياسات ولوائح متسقة لضمان سلامة الذكاء الاصطناعي.
المصادر: 1