تم تدريب نموذج جديد للذكاء الاصطناعي (AI Model) يُدعى "فورسايت" على البيانات الطبية لنحو 57 مليون مستخدم لهيئة الخدمات الصحية الوطنية (NHS) في إنجلترا. تشمل هذه المجموعة الضخمة من البيانات (dataset) سجلات زيارات المستشفيات، والمواعيد، والتطعيمات، وغيرها، بإجمالي يصل إلى 10 مليارات حدث صحي. يقترح المطورون، وهم فريق من الباحثين في جامعة كوليدج لندن الذين استندوا إلى تقنية الذكاء الاصطناعي Llama 2 من ميتا، أن "فورسايت" يمكن أن يساعد الأطباء في التنبؤ بالأمراض، وتوقع احتياجات المستشفيات، وتعزيز الرعاية الصحية الوقائية.
ومع ذلك، أثار استخدام هذه الكمية الهائلة من بيانات الصحة الحساسة مخاوف كبيرة بشأن الخصوصية وحماية البيانات. فبينما تم تعمية البيانات (de-identified) قبل استخدامها، يحذر الخبراء من أن إعادة تحديد هوية الأفراد من مجموعات البيانات الكبيرة والغنية لا يزال ممكناً. كما تُطرح أسئلة حول مدى انطباق قوانين حماية البيانات الحالية، مثل اللائحة العامة لحماية البيانات (GDPR)، بشكل كافٍ على هذا النوع من التدريب على الذكاء الاصطناعي، إضافة إلى نقص الخيارات الواضحة للأشخاص لانسحاب (opt out) بياناتهم من الاستخدام بهذه الطريقة. يؤكد النقاد على أن ثقة الجمهور قد تتآكل وأن الأخلاق وسيطرة المريض يجب أن تحتل الصدارة في مثل هذه التطورات.
النقاط الرئيسية
- فورسايت هو نموذج للذكاء الاصطناعي (AI model) جرى تدريبه على مجموعة بيانات (dataset) ضخمة تضم 57 مليون سجل صحي من هيئة الخدمات الصحية الوطنية (NHS) في إنجلترا.
- يقترح مطوروه استخدامات محتملة في التنبؤ بالأمراض وتعزيز كفاءة الرعاية الصحية.
- أثيرت مخاوف كبيرة بشأن الخصوصية، لا سيما فيما يتعلق بخطر إعادة تحديد هوية بيانات المرضى.
- تجري مناقشة مدى انطباق قواعد حماية البيانات الحالية وخيارات انسحاب (opt-out) المرضى على هذا النوع من التدريب على الذكاء الاصطناعي.
- يؤكد الخبراء على ضرورة إعطاء الأولوية للأخلاق، وثقة الجمهور، وموافقة المرضى عند تطوير الذكاء الاصطناعي باستخدام البيانات الصحية.
في جملة واحدة
نموذج للذكاء الاصطناعي (AI model) تم تدريبه على 57 مليون سجل لهيئة الخدمات الصحية الوطنية (NHS) يظهر إمكانات واعدة للرعاية الصحية، ولكنه يواجه مخاوف كبيرة تتعلق بخصوصية المرضى، وخطر إعادة تحديد هوية البيانات، والتساؤلات حول قوانين حماية البيانات.
المصادر: 1