Anthropic تطلب من مستخدمي Claude الآن الاختيار: مشاركة المحادثات لأغراض التدريب أو الانسحاب قبل 28 سبتمبر 2025

ستبدأ Anthropic في تدريب نماذجها للذكاء الاصطناعي على نصوص محادثات المستهلكين وجلسات البرمجة، ما لم يختَر المستخدمون الانسحاب (opt-out). وستحتفظ بهذه البيانات لمدة تصل إلى خمس سنوات لمن لا ينسحبون. يسري هذا التغيير على مستخدمي Claude Free وClaude...

أنثروبيك تسوّي دعوى مؤلفين بشأن استخدام الكتب في تدريب الذكاء الاصطناعي (AI)

أبرمت أنثروبيك تسوية في دعوى قضائية جماعية مع مجموعة من مؤلفي الأعمال الروائية وغير الروائية بشأن استخدام الشركة للكتب في تدريب نماذجها اللغوية الكبيرة (Large Language Models) للذكاء الاصطناعي (AI)، وذلك بحسب وثيقة مقدَّمة إلى محكمة الاستئناف...

تقارير: Anthropic تجري محادثات لجمع ما يصل إلى 10 مليارات دولار، ما يشير إلى مرحلة جديدة في سباق تمويل الذكاء الاصطناعي (AI)

تقترب Anthropic من إبرام صفقة لجمع ما يصل إلى 10 مليارات دولار في جولة تمويل جديدة، وفقًا لأشخاص مطلعين على الأمر. هذا الرقم—الأعلى مما كان متوقعًا سابقًا—سيُعد من بين أكبر الجولات التمويلية لشركة ناشئة في مجال الذكاء الاصطناعي، وقد يشير إلى قفزة...

أنثروبيك تستكشف أسباب تحوّل نماذج الذكاء الاصطناعي إلى «شريرة» وكيف يمكن إيقاف ذلك

نشر باحثو سلامة الذكاء الاصطناعي في شركة أنثروبيك دراسة جديدة تتعمّق في الأسباب التي تجعل النماذج اللغوية الكبيرة تبدو كأن لها «شخصيات»—أي النبرة وأنماط السلوك التي يلاحظها المستخدمون غالباً أثناء الحوار. وعن طريق رسم خريطة للأجزاء التي «تضيء»...