Anthropic تطلب من مستخدمي Claude الآن الاختيار: مشاركة المحادثات لأغراض التدريب أو الانسحاب قبل 28 سبتمبر 2025

Anthropic تطلب من مستخدمي Claude الآن الاختيار: مشاركة المحادثات لأغراض التدريب أو الانسحاب قبل 28 سبتمبر 2025

ستبدأ Anthropic في تدريب نماذجها للذكاء الاصطناعي على نصوص محادثات المستهلكين وجلسات البرمجة، ما لم يختَر المستخدمون الانسحاب (opt-out). وستحتفظ بهذه البيانات لمدة تصل إلى خمس سنوات لمن لا ينسحبون. يسري هذا التغيير على مستخدمي Claude Free وClaude Pro وClaude Max، بما في ذلك Claude Code، ويستثني الخطط المؤسسية والفئات الموجّهة للأعمال مثل Claude Gov وClaude for Work وClaude for Education، وكذلك استخدام واجهة برمجة التطبيقات (API) عبر خدمات مثل Amazon Bedrock وVertex AI من Google Cloud. في السابق، كانت معظم بيانات محادثات المستهلكين تُحذف خلال 30 يوماً (مع استثناءات محدودة). وتقول Anthropic إن هذا التحول سيحسّن سلامة النموذج وقدراته في مجالات مثل البرمجة والتحليل والاستدلال.

يجب على جميع المستخدمين اتخاذ قرارهم بحلول 28 سبتمبر 2025. سيُطلب من المستخدمين الجدد الاختيار أثناء التسجيل، فيما سيظهر للمستخدمين الحاليين إشعار منبثق يحتوي على مبدّل تدريب مضبوط على التشغيل (On) افتراضياً أسفل زر القبول (Accept) البارز. ينطبق التدريب على الدردشات أو جلسات البرمجة الجديدة أو المستأنفة؛ أما المحادثات الأقدم فلن تُستخدم ما لم تُستأنف. يمكن للمستخدمين تغيير تفضيلهم في أي وقت عبر الإعدادات > الخصوصية > إعدادات الخصوصية — المساعدة في تحسين Claude (Help improve Claude)، على أن تسري التغييرات على البيانات المستقبلية فقط. وتؤكد Anthropic أنها تُنقّح البيانات الحساسة أو تُخفي هويتها ولا تبيع بيانات المستخدمين، وذلك وسط تدقيق متزايد في القطاع وارتباك المستخدمين إزاء سياسات بيانات الذكاء الاصطناعي المتغيرة.

النقاط الرئيسية

  • الموعد النهائي: ينبغي على من لا يرغب بالمشاركة الانسحاب (opt-out) قبل 28 سبتمبر 2025؛ وإلا قد تُستخدم محادثاتهم للتدريب وتُخزَّن لمدة تصل إلى خمس سنوات.
  • النطاق: يسري على Claude Free وPro وMax (بما في ذلك Claude Code)، ولا يسري على Claude Gov أو Work أو Education أو على استخدام واجهة برمجة التطبيقات (API) عبر موفّرين خارجيين.
  • التغطية: يشمل التدريب الدردشات وجلسات البرمجة الجديدة أو المستأنفة فقط؛ ولا تُستخدم المحادثات السابقة ما لم تُستأنف.
  • كيفية الانسحاب: في الإشعار المنبثق، عطّل مبدّل التدريب إلى إيقاف (Off) قبل القبول؛ لاحقاً، انتقل إلى الإعدادات > الخصوصية > إعدادات الخصوصية وعطّل خيار المساعدة في تحسين Claude (Help improve Claude).
  • القيود: يمكنك تغيير تفضيلك في أي وقت، لكن لا يمكن التراجع عن استخدام بيانات سبق تدريب النماذج عليها؛ وتقول Anthropic إنها تُنقّح البيانات الحساسة ولا تبيع بيانات المستخدمين.

في جملة واحدة

Anthropic تعتمد نموذج الانسحاب لتدريبها على محادثات المستهلكين، مع احتفاظ بالبيانات لمدة تصل إلى خمس سنوات لمن لا ينسحبون. على المستخدمين الاختيار بحلول 28 سبتمبر 2025، ويمكن إدارة التفضيلات من إعدادات الخصوصية.

المصادر: 1 2

\