Anthropic تؤيد مشروع قانون كاليفورنيا SB 53، أول تشريع من نوعه للشفافية في الذكاء الاصطناعي (AI)

Anthropic تؤيد مشروع قانون كاليفورنيا SB 53، أول تشريع من نوعه للشفافية في الذكاء الاصطناعي (AI)

أعلنت Anthropic رسمياً تأييدها لمشروع القانون SB 53 في كاليفورنيا، وهو مقترح يفرض متطلبات جديدة للشفافية والسلامة على أكبر مطوّري نماذج الذكاء الاصطناعي (AI) في العالم. يُلزم المشروع شركات مثل OpenAI وAnthropic وGoogle وxAI بوضع أطر للسلامة ونشر تقارير عامة عن السلامة والأمن قبل طرح النماذج المتقدمة للذكاء الاصطناعي. كما يتضمن حماية للمبلّغين عن المخالفات (whistleblower protections)، ويركّز على درء المخاطر الكارثية مثل الخسائر واسعة النطاق في الأرواح أو الأضرار الاقتصادية الجسيمة.

يأتي SB 53 وسط معارضة قوية من القطاع التقني وحجج بأن قواعد سلامة الذكاء الاصطناعي ينبغي أن تُحدَّد على المستوى الفدرالي. ولم يعلن الحاكم غافن نيوسوم—الذي استخدم حق النقض ضد مشروع سابق (SB 1047)—موقفه من SB 53 بعد. وقد أزال المشرّعون مؤخراً شرط التدقيق من طرف ثالث (third-party audit)، في خطوة قد تزيد احتمالات إقراره. ويؤكد المؤيّدون أن المشروع يُقنّن، على نحو محدود، ممارسات تقول مختبرات عديدة إنها تطبقها بالفعل، محوّلاً الالتزامات الطوعية إلى معايير قابلة للإنفاذ.

النقاط الرئيسية

  • أعلنت Anthropic تأييدها لـ SB 53، مؤكدة أن تحرّك الولاية مطلوب في ظل تأخر السياسات الفدرالية.
  • يفرض المشروع أطر سلامة، وتقارير عامة عن السلامة والأمن قبل الإطلاق (pre-deployment)، وحماية للمبلّغين عن المخالفات.
  • يستهدف المخاطر الكارثية وينطبق على أكبر مطوّري نماذج الذكاء الاصطناعي (AI) (مثل OpenAI وAnthropic وGoogle وxAI).
  • تعارض مجموعات تقنية وبعض صانعي السياسات الإجراء، مشيرين إلى مخاوف تتعلق بالابتكار والأسبقية الفدرالية (federal preemption).
  • أُزيل شرط التدقيق من طرف ثالث (third-party audit)؛ لا يزال المشروع بانتظار تصويت نهائي، ولم يعلن الحاكم موقفه.

في جملة واحدة

يمنح تأييد Anthropic زخماً لمشروع SB 53 في كاليفورنيا، الذي سيجعل متطلبات سلامة وشفافية الذكاء الاصطناعي (AI) ملزمة قانوناً لأكبر مطوّري النماذج. يواجه المشروع معارضة، لكنه خُفِّف وقد يقترب من تصويت حاسم.

المصادر: 1

\