خطر الذكاء الاصطناعي يُضاهي الحروب النوويَّة

علوم وتكنلوجيا 2023/06/06
...

  سان فرانسيسكو: وكالات

مرة أخرى، أصدر رئيسا شركتي ذكاء اصطناعي بارزتين تحذيراً من المخاطر الوجودية التي يطرحها الذكاء الاصطناعي المتطور. وقد تعهد كل من المديرين التنفيذيين لـ"ديبمايند" (DeepMind) و"أوبن إي آي" (OpenAI)، ديميس هاسيبيس وسام آلتمان، تقديم دعمهما لبيانٍ مقتضب نشره "مركز سلامة الذكاء الاصطناعي" (Centre for AI Safety)، وتضمن دعوة إلى الجهات المنظمة والمشرعين لوجوب التعامل بجدية أكبر مع "المخاطر الجسيمة" التي يطرحها الذكاء الاصطناعي اليوم.


مخاطر الفناء
وذكر البيان "أنَّ مهمة التخفيف من مخاطر الفناء بسبب الذكاء الاصطناعي يجب أنْ تكون أولوية عالميَّة إلى جانب مهمات مواجهة مخاطر أخرى تطاول تداعياتها المجتمع بأسره، مثل الجوائح والحرب النووية".
وكان "مركز سلامة الذكاء الاصطناعي"، وهو منظمة غير ربحية مركزها سان فرانسيسكو وتهدف "إلى تقليص المخاطر ذات الأبعاد الاجتماعية الكبرى التي يطرحها الذكاء الاصطناعي"، اعتبر أن استخدام الذكاء الاصطناعي في الحروب ربما يكون "مفرط الأذى"، لأنه قد يستخدم لتطوير أسلحة كيماوية جديدة وتعزيز الحرب الجوية.
وقع على البيان المقتضب هذا مديرو شركات وأكاديميون بارزون في علوم الفضاء، علماً أنَّ البيان المذكور لا يوضح ما يراه الموقعون مهدداً بالفناء بفعل مخاطر الذكاء الاصطناعي. ومن بين الموقعين جيوفري هينتون، الذي يلقب أحياناً بـ"عراب الذكاء الاصطناعي"، وإليا سوتسكيفير، المدير التنفيذي لـ"تشات جي بي تي" (ChatGPT) وأحد مطوري "أوبن إي آي". كما تضم لائحة موقعي البيان أيضاً عشرات مديري الشركات المعروفة، مثل مدير "غوغل"، وأحد مؤسسي "سكايب"، ومؤسسي شركة "آنثروبيك" (Anthropic) للذكاء الاصطناعي.

تجريد البشر من وظائفهم
إلى هذا تتركز النقاشات العالمية اليوم على الذكاء الاصطناعي بعد إطلاق عددٍ من الشركات أدواتٍ جديدة تمكن المستخدمين من إنتاج نصوصٍ وصورٍ ورموز كمبيوتر حتى، من دون أنْ يكلفهم ذلك سوى طلب ما يريدون. ويقول خبراء في هذا السياق إنَّ بوسع هذه التكنولوجيا تجريد البشر من وظائف عديدة - إلا أنَّ هذا البيان الجديد الذي نحن في صدده يشير إلى مخاطر أعمق وأكبر. إذ إنَّ ظهور أدوات مثل "تشات جي بي تي" و"دال-إي" (Dall-E) أدى إلى بروز مخاوف من قيام الذكاء الاصطناعي يوماً بإفناء البشرية إن تخطى الذكاء البشري.
وفي وقت سابق من هذا العام، وبالإطار عينه، قام رؤساء شركات تكنولوجيا بارزون بدعوة شركات الذكاء الاصطناعي الطليعية إلى إيقاف تطوير أنظمتها لستة أشهر بغية العمل على سبل لتخفيف المخاطر.
"أنظمة الذكاء الاصطناعي القادرة على منافسة الذكاء البشري بوسعها أن تمثل مخاطر هائلة على المجتمع والبشرية ككل"، ذكرت رسالة مفتوحة نشرها "معهد مستقبل الحياة" (Future of Life Institute). وتابعت هذه الرسالة: "ينبغي على أنشطة أبحاث وتطوير الذكاء الاصطناعي أن تكون مركزة على جعل أنظمتها الحاذقة وبالغة التطور اليوم أكثر دقة، وأماناً، ووضوحاً، وشفافية، وقدرة، ومواءمة، وموثوقية، وإخلاصاً (للحياة البشرية)".

"مبالغ فيها"
من جانبه قضى اختصاصي الذكاء الاصطناعي غاري ماركوس الأشهر الأخيرة يحذر أقرانه والنواب والجمهور عموماً من المخاطر المرتبطة بتطوير أدوات هذا المجال الجديدة وانتشارها الفائق السرعة، لكنه اعتبر أن مخاطر انقراض البشرية "مبالغ فيه".
وأوضح الأستاذ الفخري في جامعة نيويورك الذي قدم إلى كاليفورنيا لحضور مؤتمر "شخصياً، وفي الوقت الحاضر، لست قلقاً جداً بهذا الشأن، لأنَّ السيناريوهات ليست في غاية الواقعيَّة". وتابع "ما يقلقني هو أن نبني أنظمة ذكاء اصطناعي لا نحكم السيطرة عليها".
وفي آذار، كان من موقعي الرسالة التي نشرها مئات الخبراء للمطالبة بتعليق تطوير أنظمة ذكاء اصطناعي فائقة القوة مثل روبوت الدردشة "تشات جي بي تي" الذي أطلقته شركة "أوبن إيه آي" الناشئة لمدة ستة أشهر للتثبت من أن البرامج المطروحة حاليا للاستخدام "موثوقة وآمنة وشفافة ووفية ... وموائمة" للقيم البشرية.