بروكسل: الذكاء الاصطناعي ليس معصوماً

علوم وتكنلوجيا 2020/12/14
...

  بروكسل: وكالات
 
حذرت وكالة الاتحاد الأوروبي للحقوق الأساسية FRA، ومقرها فيينا، من مخاطر استخدام الذكاء الاصطناعي في المراقبة التنبؤية والتشخيصات الطبية والإعلانات المستهدفة.
وتأتي التحذيرات بينما يدرس الاتحاد الأوروبي القواعد المفترض صدورها في العام المقبل لمواجهة التحديات التي تفرضها التكنولوجيا.
وتستخدم وكالات تطبيق القانون الذكاء الاصطناعي على نطاق واسع، وتقول الجماعات الحقوقية: إن الأنظمة الاستبدادية تسيء استخدام التكنولوجيا بسبب المراقبة الجماعية والتمييزية. وينتقد النقاد أيضًا انتهاك الحقوق الأساسية للأفراد وقواعد الخصوصية للبيانات.
وحثت وكالة الاتحاد الأوروبي للحقوق الأساسية FRA واضعي السياسات في تقرير صدر اليوم الاثنين على تقديم المزيد من الإرشادات حول كيفية تطبيق القواعد الحالية على الذكاء الاصطناعي وضمان أن قوانين الذكاء الاصطناعي المستقبلية تحمي الحقوق الأساسية.
وقال (مايكل أوفلاهيرتي)، مدير وكالة الاتحاد الأوروبي للحقوق الأساسية FRA في بيان: الذكاء الاصطناعي ليس معصومًا عن الخطأ، فهو من صنع الناس، ويمكن للبشر ارتكاب الأخطاء.
وأضاف: هذا هو السبب في أن الناس بحاجة إلى أن يكونوا على دراية عندما يتم استخدام الذكاء الاصطناعي، وكيف يعمل، وكيفية تحدي القرارات الآلية.
ويأتي تقرير وكالة الاتحاد الأوروبي للحقوق الأساسية FRA بينما تدرس المفوضية الأوروبية، الجهاز التنفيذي للاتحاد الأوروبي، تشريعات العام المقبل لتغطية ما يسمى بالقطاعات العالية المخاطر، مثل: الرعاية الصحية والطاقة والنقل وأجزاء من القطاع العام.
وقالت الوكالة: إن قواعد الذكاء الاصطناعي يجب أن تحترم جميع الحقوق الأساسية، مع ضمانات لضمان ذلك، وتشمل ضمانًا بأن الناس يمكنهم الطعن في القرارات التي يتخذها الذكاء الاصطناعي وأن الشركات بحاجة إلى أن تكون قادرة على شرح كيفية اتخاذ أنظمتها لقرارات الذكاء الاصطناعي.