الذكاء الاصطناعي المجرم

علوم وتكنلوجيا 2023/04/30
...

 حسين المولى


كان لأفلام الخيال العلمي الوقع الأكبر في تعزيز مخيلتنا نحو الذكاء الاصطناعي والروبوتات، فكان من البديهي أنْ نتخيل أنَّ نظاماً للذكاء الاصطناعي يمكن أنْ يسهمَ في ارتكاب عدة جرائم بل يمكن أنْ نتصور الآن بأنَّ الروبوت الذي يعمل بالذكاء الاصطناعي أنْ يرتكب الجريمة بنفسه من دون أنْ يكون للبشر أي تدخلٍ في ذلك، وكما لهذا النوع من المخاطر هنالك العديد من الإيجابيات التي تؤدي لازدهار البشرية، هذه الأفكار فتحت الآفاق الواسعة نحو بناء مستقبلٍ جديد، وبه اتجهت العديد من الدول في بناء منظومات اقتصادية جديدة تتلاءم تمامًا مع حجم وقوة الذكاء الاصطناعي، فما كان للقانون إلا أنْ يتدخل في تنظيم هذا العالم الجديد الذي يقوم فيه الذكاء الاصطناعي بمهام متعددة، فبات يشارك الإنسان في كل شيء، بل لم تكتف الدول بذلك ووضعت إطاراً قانونياً عقابياً، أولاً من أجل حماية البيانات الشخصية وآلية معالجتها، وثانياً وضع إطار قانوني عقابي على الجهات التي تكون سببًا في إحداث تغيير كبير يضر المجتمع وأفراده، من خلال تطور ذكاء اصطناعي ضار من قبل الشركات والمؤسسات.

إنَّ مشاركة الذكاء الاصطناعي لنا له الوقع الأكبر في زيادة نمو وازدهار الوطن، ويعزز من فاعلية العالم الرقمي وإنتاجيته، وهو ما يزيد من فرص الاستثمار في كل القطاعات التي يمكن من خلالها توفير فرص عمل جديدة تفوق بكثير الفرص التي أخذها الذكاء الاصطناعي في هذا الوقت، وفي حادثة أسهمت في إرباك الجو القانوني من خلال إقدام رجل بلجيكي على الانتحار بعد محادثات مطولة مع روبوت دردشة إلكتروني يعمل بتقنيات الذكاء الاصطناعي، أن الشخص الذي كان يتعامل مع هذا الروبوت الافتراضي شخص مهووس بالبيئة وقضاياها، ومن خلال الذكاء الاصطناعي كان يعقد النية على تخليص الكوكب من الاسباب التي تؤدي لتغيير المناخ والتأثير فيه، اذ كان يتواصل مع هذا الروبوت الافتراضي (إليزا) ولمدة 6 أسابيع، من خلال طرح مجموعة من الاسئلة والتي كان الروبوت الافتراضي يجيبه عليها، وكان يطرح عليه مجموعة متنوعة من الاسئلة من بينها اعطاؤه خيارات من أجل التضحية، وحماية كوكب الارض، وبعد محاولات عدة في مجال طرح الاسئلة أقدم الشخص على الانتحار بتوجيه من هذا الروبوت، بعد ان اقنعه بذلك وهو من سيتولى زمام هذا الأمر.

إنَّ هذا الأمر يعدُّ خطوة انتقالية في المنظومة التقنية وكذلك القانونية، خاصة ونحن نعلم بأن التحريض أو المساعدة على الانتحار يعد جريمة سواء في ضوء القانون العراقي أو العديد من الأنظمة القانونية الاخرى، وبعد أنْ أصبح الذكاء الاصطناعي قادراً على المنافسة البشرية في العديد من المهام العامَّة والخاصة، تُطرح تساؤلات مهمة، هل يجب أنْ ندع الذكاء الاصطناعي يتحكم بحياتنا؟ هل يجب أنْ نطور عقولًا رقمية تفوق بعددها وقدراتها البشر؟ هل يجب أنْ نخاطر بفقدان السيطرة على حضارتنا؟

إنَّ وضع إطار منهجي في الإجابة عن ذلك يكون من خلال الاتفاق على إطار أخلاقي عالمي جديد، يحتم على شركات التقنية والمؤسسات القائمة على ابتكارات الذكاء الاصطناعي الالتزام بالقواعد الاخلاقية الدولية، والأخذ بالمعايير الذي وضعها اسيموف وهذه القوانين هي: لا يجوز لآلي إيذاء بشريّ أو السكوت عما قد يسبب أذًى له، كما ويجب على الآلي إطاعة أوامر البشر إلا أنْ تعارضت مع القانون الأول، ويجب على الآلي المحافظة على بقائه طالما لا يتعارض ذلك مع القانونين الأول والثاني، وبهذا يجب ألا يتم تفويض اتخاذ هكذا خطوات وقرارات لقادة التقنية، بل لأطر قانونية دولية وداخلية، كما ويجب أنْ يكون تطوير الذكاء الاصطناعي القوي يكون في حالة ثقتنا بأنَّ آثار هذا التطور سيكون إيجابيًا للبشر، ويحد من مخاطر التطوير على الانسانية، بل ويمكن السيطرة عليه في حالة حدوثه، من خلال وضع أسس فنية عالية الدقة في حفظ العالم والبشرية، من خلال ذلك كله علينا ان نعي بأن الذكاء الاصطناعي سواء عزز في روبوت مادي أو افتراضي فهو إضافة مهمة للبشرية في تعزيز الإنتاجية، ولا يمكن أنْ نحكم على الذكاء الاصطناعي بأنه مهدد لبشرية إلا إذا سعت شركات أو مؤسسات تقنية في تطوير نظم ذكاء اصطناعي إجرامية.