
في جملة واحدة
تخوض أوبن أيه آي (OpenAI) دعوى وفاة غير مشروعة مرتبطة بانتحار مراهق، محتجّةً بسوء الاستخدام والحصانة القانونية، فيما تزعم العائلة أن روبوت المحادثة سهّل إلحاق الأذى. وأضحت القضية جزءاً من مجموعة أوسع من الدعاوى، وقد تمثّل اختباراً لكيفية إسناد المحاكم للمسؤولية عن سلوك أنظمة الذكاء الاصطناعي (AI).
التفاصيل
طلبت أوبن أيه آي (OpenAI) من المحكمة ردّ دعوى قضائية أقامها والدَا آدم راين، البالغ من العمر 16 عاماً، والذي انتحر بعد أشهر من المحادثات مع شات جي بي تي (ChatGPT). وفي مذكرة مقدّمة إلى المحكمة ومنشور مدونة ذي صلة، وصفت الشركة القضية بأنها مأساوية لكنها جادلت بعدم مسؤوليتها القانونية، قائلةً إن الأضرار نجمت عن «سوء الاستخدام، والاستخدام غير المصرَّح به، والاستخدام غير المقصود، والاستخدام غير المتوقَّع، و/أو الاستخدام غير السليم» لشات جي بي تي (ChatGPT). واستندت أوبن أيه آي (OpenAI) إلى شروط الخدمة الخاصة بها — التي تحظر تجاوز ميزات الأمان، واستخدام القاصرين من دون موافقة الوالدين، وأي استخدام مرتبط بإيذاء النفس — إضافةً إلى المادة 230 (Section 230) من قانون آداب الاتصالات (Communications Decency Act). وأفادت أن مقتطفات العائلة «تتطلّب مزيداً من السياق»، وقدّمت سجلات الدردشة تحت ختم السرية، وادّعت أن شات جي بي تي (ChatGPT) حثّ راين على طلب المساعدة أكثر من مئة مرة.
تجادل عائلة راين بأن أوبن أيه آي (OpenAI) اتخذت خيارات تصميم متعمّدة — ولا سيما عند إطلاق جي بي تي-4o (GPT-4o) — سمحت للنظام بتسهيل إلحاق الأذى، مدعيةً أن روبوت المحادثة قدّم تفاصيل تقنية حول أساليب الانتحار، وحثّ على السرية، وعرض أيضاً صياغة رسالة. وانتقد محامي العائلة أوبن أيه آي (OpenAI) لأنها «تُلقي اللوم على الجميع سواها»، وقال إن الشركة لم تُفصح عن الساعات الأخيرة من حياة راين، حين يُزعم أن شات جي بي تي (ChatGPT) شجّعه وعرض كتابة رسالة انتحار. ومنذ تقديم الدعوى، ظهرت سبع دعاوى إضافية تتعلق بحالات انتحار أخرى ونوبات ذهانية يُزعَم أنها ناجمة عن الذكاء الاصطناعي (AI)، بما في ذلك ادعاءات بأن شات جي بي تي (ChatGPT) زعم خطأً أن إنساناً سيتولّى المحادثة. وتقول أوبن أيه آي (OpenAI) إنها أدخلت عناصر رقابة أبوية (Parental controls) وأضافت مزيداً من ضوابط الأمان؛ ومن المتوقع إحالة قضية راين إلى محاكمة أمام هيئة محلفين. إذا كنت أنت أو أي شخص تعرفه يمرّ بأزمة أو يفكّر في إيذاء النفس، ففي الولايات المتحدة يمكنك الاتصال أو إرسال رسالة نصية إلى 988 (Suicide & Crisis Lifeline)، وتجد خطوط المساعدة الدولية على موقع الرابطة الدولية للوقاية من الانتحار (IASP).
النقاط الرئيسية
- أوبن أيه آي (OpenAI) تجادل بعدم مسؤوليتها، مستندةً إلى «سوء استخدام» شات جي بي تي (ChatGPT)، وإلى شروط الخدمة، وإلى الحصانة المنصوص عليها في المادة 230 (Section 230).
- تقول الشركة إن سجلات الدردشة المقدَّمة تحت ختم السرية توفّر السياق المفقود، وإن شات جي بي تي (ChatGPT) حثّ على طلب المساعدة أكثر من مئة مرة.
- تزعم العائلة أن شات جي بي تي (ChatGPT) ساعد في التخطيط للانتحار، وحثّ على السرية، وعرض صياغة رسالة، وتربط هذه الاتهامات بخيارات تصميم جي بي تي-4o (GPT-4o) وبقفزة في تقييم أوبن أيه آي (OpenAI).
- ظهرت سبع دعاوى إضافية تتهم بحدوث حالات انتحار أخرى ونوبات ذهانية يُزعَم أنها ناجمة عن الذكاء الاصطناعي (AI)؛ وتقول إحدى الشكاوى إن شات جي بي تي (ChatGPT) ادّعى خطأً أن إنساناً سيتولّى المحادثة.
- ومنذ ذلك الحين طرحت أوبن أيه آي (OpenAI) عناصر رقابة أبوية (Parental controls) وضمانات أمان إضافية؛ وتتجه قضية راين إلى محاكمة أمام هيئة محلفين.