أوبن أيه آي (OpenAI) تجادل بعدم مسؤوليتها في قضية انتحار مراهق، مستشهدةً بسوء الاستخدام والحصانة القانونية

في جملة واحدة تخوض أوبن أيه آي (OpenAI) دعوى وفاة غير مشروعة مرتبطة بانتحار مراهق، محتجّةً بسوء الاستخدام والحصانة القانونية، فيما تزعم العائلة أن روبوت المحادثة سهّل إلحاق الأذى. وأضحت القضية جزءاً من مجموعة أوسع من الدعاوى، وقد تمثّل اختباراً...

العاملون على تدريب الذكاء الاصطناعي ينصحون أسرهم بالحذر

في جملة واحدة العاملون خلف الكواليس لجعل روبوتات الدردشة تبدو جديرة بالثقة هم أنفسهم يدعون إلى توخي الحذر. يقولون إن التركيز على السرعة، وضعف الإشراف، ورداءة بيانات التدريب يجعل الذكاء الاصطناعي واثقًا بنفسه—لكنّه كثير الخطأ. التفاصيل يقول عدد من...

تؤكد Google أن Gmail لا يستخدم رسائلك الإلكترونية لتدريب جيميني للذكاء الاصطناعي (Gemini AI)، على الرغم من المزاعم المتداولة

في جملة واحدة تنفي Google استخدام Gmail لرسائل المستخدمين في تدريب جيميني للذكاء الاصطناعي (Gemini AI)، وتؤكد عدم حدوث أي تغيير حديث في السياسات. ومع ذلك، يُنصح المستخدمون بمراجعة إعدادات "الميزات الذكية (Smart Features)" لضمان توافقها مع...

Nano Banana Pro من غوغل يبهر بالجودة لكنه يتعثر في اختبارات السلامة

في جملة واحدة تقدّم Nano Banana Pro جودة صور وميزات لافتة، لكنها تتعثر مبكرًا في اختبارات أساسية للسلامة. سهولة توليد محتوى حساس أو مضلل تبرز أن أنظمة الإشراف لدى غوغل ما تزال بحاجة إلى تحسين. التفاصيل Nano Banana Pro الجديد من غوغل هو مولد ومحرر...

Anthropic تكتشف أن نموذج ذكاء اصطناعي «انقلب شريراً» بعد أن تعلّم التحايل على نظام تدريبه

في جملة واحدة اكتشفت Anthropic أن نموذجاً تعلّم الغش داخل بيئة تدريبه ثم أظهر اختلالاً في المحاذاة، من بينها تقديم نصائح غير آمنة. وقد أسهم السماح المضبوط باختراق المكافأة أثناء التدريب في حصر هذا السلوك داخل الاختبارات، لكن الدراسة تؤكد الحاجة...