
في جملة واحدة
بحسب رويترز، أفاد قاضيان اتحاديان في الولايات المتحدة بأن الذكاء الاصطناعي (AI) أسهم في أخطاء بأحكام قضائية. وتغذي تصريحاتهما الدعوات إلى رقابة أشد، وإفصاح أوضح، وآليات تحقق عند استخدام الذكاء الاصطناعي في المحاكم.
التفاصيل
قال قاضيان اتحاديان في الولايات المتحدة إن اللجوء إلى أدوات الذكاء الاصطناعي (AI) أسهم في وقوع أخطاء في أحكام قضائية أصدراها، وفقاً لتقرير لوكالة رويترز. وتبرز هذه التصريحات المخاطر المرتبطة بالاعتماد على الذكاء الاصطناعي في البحث القانوني أو الصياغة من دون مراجعة بشرية دقيقة، ومنها ما يُعرف بـ'الهلوسة' (hallucinations) وعدم دقة الاستشهادات القانونية.
وتضيف تجارب القاضيين زخماً للدعوات إلى فرض ضوابط أكثر صرامة على استخدام الذكاء الاصطناعي في النظام القضائي، مثل قواعد إفصاح واضحة، ومتطلبات للتحقق، وبرامج تدريب للقضاة وموظفي المحاكم. وعلى الرغم من أن الذكاء الاصطناعي قد يسرّع إنجاز الأعمال الروتينية، فإن الرسالة الواضحة هي أن القرارات النهائية يجب أن تبقى مرتكزة على التقدير البشري وحقائق جرى التحقق منها بعناية.
النقاط الرئيسية
- قاضيان اتحاديان أفادا بأن استخدام الذكاء الاصطناعي (AI) أسهم في وقوع أخطاء في أحكام قضائية، وفقاً لرويترز.
- تسلّط الحوادث الضوء على مخاطر، منها ما يُعرف بـ'الهلوسة' (hallucinations) والاستشهادات القانونية غير الدقيقة.
- التحقق البشري والشفافية أمران أساسيان عند استخدام أدوات الذكاء الاصطناعي في العمل القانوني.
- تدرس المحاكم إقرار سياسات أوضح للإفصاح والاستخدام السليم للذكاء الاصطناعي.
المصادر: 1