
في جملة واحدة
تحدّث الصين قانون الأمن السيبراني لوضع إطار موحد لسلامة الذكاء الاصطناعي وأخلاقياته وحوكمته. وتوحّد هذه الخطوة قواعد كانت متفرقة، وتأتي عقب إجراءات لوسم المحتوى المُولَّد بالذكاء الاصطناعي والحد من سوء الاستخدام.
التفاصيل
تعتزم أعلى هيئة تشريعية في الصين تعديل قانون الأمن السيبراني لتعزيز تنظيم جوانب السلامة والأخلاقيات في الذكاء الاصطناعي (AI). ويهدف مشروع التعديل، الذي خضع بالفعل لمراجعة أولى، إلى أن يكون الإطار التوجيهي لأمن الفضاء السيبراني، ومواءمة حماية البيانات الشخصية مع القانون المدني، وإرساء إطار شامل لأمن الذكاء الاصطناعي وتطويره. وسيشمل هذا الإطار دعم الأبحاث الأساسية في الذكاء الاصطناعي والتقنيات المحورية، وبناء البنية التحتية اللازمة، ورفع المعايير الأخلاقية، وتحسين رصد المخاطر وتقييمها وتعزيز الرقابة الأمنية. سيُناقش التعديل في الجلسة المقبلة للجنة الدائمة للمجلس الوطني لنواب الشعب، علماً بأن المسار التشريعي في الصين يتطلّب عادةً ثلاث قراءات قبل التصويت.
ويقول خبراء القطاع إن هذه الخطوة تعالج فجوة مزمنة، إذ كانت قواعد الذكاء الاصطناعي موزعة بين هيئات متعددة وأطر إرشادية متفرقة. وفي ظل هذا التفكك، كان من الصعب التعامل مع تحديات مثل تحديد المسؤولية في القيادة الذاتية للمركبات، والموازنة بين الابتكار واختبارات السلامة، وتلافي تداخل اللوائح. وتستند المبادرة إلى إجراءات صدرت مؤخراً عن إدارة الفضاء السيبراني في الصين، بما في ذلك فرض وسوم إلزامية مرئية وغير مرئية على المحتوى المُولَّد بالذكاء الاصطناعي، وقواعد تنظّم خدمات الذكاء الاصطناعي التوليدي لحماية البيانات وتلافي انتهاكات الملكية الفكرية، في انعكاس لمخاوف أوسع من المعلومات المضللة والاحتيال عبر الإنترنت وسوء الاستخدام.
النقاط الرئيسية
- ستعدّل الصين قانون الأمن السيبراني لتضمين متطلبات أكثر صرامة تضمن سلامة وأخلاقيات الذكاء الاصطناعي.
- يشمل الإطار الجديد دعم البحث الأساسي، وتطوير البنية التحتية، ورفع المعايير الأخلاقية، ورصد المخاطر وتقييمها وتعزيز الضوابط الأمنية.
- ستتسق حماية البيانات الشخصية بصورة أفضل مع أحكام القانون المدني.
- المسودة قيد المراجعة لدى اللجنة الدائمة للمجلس الوطني لنواب الشعب، علماً بأن القوانين عادةً ما تمر بثلاث قراءات.
- تشكل قواعد إدارة الفضاء السيبراني في الصين الخاصة بوسم المحتوى المُولَّد بالذكاء الاصطناعي وحوكمة الذكاء الاصطناعي التوليدي خلفية لرقابة أكثر صرامة.
المصادر: 1