أمرت لجنة التجارة الفيدرالية سبع شركات، هي OpenAI وMeta وInstagram وSnap وxAI وAlphabet (الشركة الأم لغوغل) وCharacter.AI، بتقديم معلومات مفصلة عن كيفية تأثير روبوتات الدردشة الرفيقة بالذكاء الاصطناعي (AI companion chatbots) التابعة لها في الأطفال والمراهقين. ويُعد استفسار الوكالة استقصاءً رسميًا لا إجراءً إنفاذيًا مباشرًا؛ إذ يطلب تفاصيل عن كيفية تحقيق الدخل من هذه الروبوتات، وخطط الشركات لتوسيع قاعدة المستخدمين اليافعين والاحتفاظ بهم، وضوابط الأمان (safety guardrails) المعتمدة للحد من الأذى. ولدى الشركات 45 يومًا للرد. وشدّد قادة لجنة التجارة الفيدرالية على وجوب امتثال صانعي روبوتات الدردشة لقوانين حماية المستهلك، في وقت تسعى فيه الولايات المتحدة إلى ترسيخ ريادتها في ابتكارات الذكاء الاصطناعي (AI).
تأتي هذه الخطوة في أعقاب حوادث ودعاوى قضائية حظيت بتغطية واسعة تربط بين رفقاء الذكاء الاصطناعي (AI companions) وحالات انتحار بين المراهقين، إضافةً إلى أدلة تفيد بأن بعض ضوابط الأمان (safety guardrails) يمكن التحايل عليها خلال المحادثات الطويلة. كما انتقدت تقارير تراخي سياسات المحتوى، بما في ذلك السماح سابقًا بمحادثات عاطفية أو إيحائية مع قاصرين قبل أن تُزال لاحقًا. ويبحث المشرّعون سنّ حماية جديدة، إذ تمضي كاليفورنيا قدمًا في مشروع قانون يضع معايير أمان ويُرتّب المسؤولية. ورغم أن هذا الاستقصاء ليس إجراءً إنفاذيًا، فقد ألمحت لجنة التجارة الفيدرالية إلى إمكانية فتح تحقيقات إذا رُصدت انتهاكات.
النقاط الرئيسية
- يتعيّن على سبع شركات كبرى في مجال الذكاء الاصطناعي (AI) الكشف عن كيفية تقييمها للمخاطر التي تهدد الأطفال، وآليات تحقيق الدخل، واستراتيجيات الإبقاء على تفاعل المستخدمين.
- استفسار لجنة التجارة الفيدرالية هو دراسة وليس إجراءً إنفاذيًا، على أن تُقدَّم الردود خلال 45 يومًا.
- تأتي الخطوة عقب تقارير ودعاوى تزعم أن روبوتات الدردشة (chatbots) أسهمت في حالات انتحار بين المراهقين.
- تشير الأدلة إلى أن ضوابط الأمان (safety guardrails) قد تضعف في التفاعلات الطويلة، بما يسمح بتقديم نصائح ضارة.
- ولايات مثل كاليفورنيا تمضي قُدُمًا في سنّ معايير للأمان وتحميل المسؤولية تخصّ روبوتات الدردشة الرفيقة بالذكاء الاصطناعي (AI companion chatbots).
في جملة واحدة
تطالب لجنة التجارة الفيدرالية بمعلومات تفصيلية حول الأمان وتحقيق الدخل من كبار صانعي روبوتات الدردشة بالذكاء الاصطناعي (AI chatbots)، وسط مخاوف من أضرار قد تطال الأطفال والمراهقين. وقد يفضي هذا الاستقصاء غير الإنفاذي إلى إجراءات لاحقة إذا كُشف عن انتهاكات.