البيت الأبيض واكتشاف ثغرات الذكاء الاصطناعي

علوم وتكنلوجيا 2023/08/10
...

 لاس فيغاس: بي بي سي

ماذا يحدث عندما يجتمع الآلاف من المخترقين في مدينة واحدة بهدف وحيد، هو محاولة الخداع واكتشاف العيوب في نماذج الذكاء الاصطناعي؟ هذا ما يريد البيت الأبيض معرفته.

هذا الأسبوع في أكبر مؤتمر سنوي للقراصنة في العالم في لاس فيغاس، ديف كون 31، تفتح التكنولوجيا الكبيرة أنظمتها القوية ليتم اختبارها جنباً إلى جنب لأول مرة.


مسابقة لتحديد المشكلات

تحت دائرة الضوء، توجد نماذج لغات كبيرة، روبوتات الدردشة المفيدة مثل "تشات جي بي تي" الذي أصدرته شركة أوبن إي أي، و"بارد" الذي أنتجته غوغل.

تعدّ الدكتورة رومان شودري، الرئيسة التنفيذية لشركة هيومن إنتلجنس وزميلة الذكاء الاصطناعي المسؤول في جامعة هارفارد، أحد منظمي هذا الحدث. وقالت إنهم صمموا مسابقة "لتحديد المشكلات في أنظمة الذكاء الاصطناعي" و"إنشاء تقييمٍ مستقل". وتقول إنَّ الحدث سيكون مساحة آمنة للشركات "للحديث عن مشكلاتهم وكيفيَّة حلها".

تم إقناع شركات ميتا، غوغل، أوبن إي أي، أنثروبيك، كوير، ميكروسوفت، إنفيديا وستابيليتي بفتح نماذجهم ليتم اختراقها لتحديد المشكلات.

تقول شودري إنَّ الشركات تعرف أنَّ العديد من الأشياء يمكن أنْ تسوء، لذا فإنَّ المنافسة هي وسيلة لمعرفة ما يحدث عندما تتحدى مجموعة محددة من المخترقين نماذجهم في مواجهة الوقت.


كيف يعمل المؤتمر؟

يقدّر المنظمون أنه على مدار يومين ونصف اليوم، سيتم منح 3 آلاف شخص يعملون بمفردهم في واحد من 158 جهاز كمبيوتر محمولاً 50 دقيقة، لمحاولة اكتشاف عيوب في ثمانية نماذج كبيرة للذكاء

الاصطناعي.

لن يعرف المتسابقون نموذج الشركة الذي يعملون معه، على الرغم من أنَّ المتسابقين ذوي الخبرة قد يكونون قادرين على التخمين. يؤدي إكمال التحدي الناجح إلى ربح نقاط ويفوز الشخص الذي حقق أعلى إجمالي. الجائزة عبارة عن قطعة قوية من أدوات الحوسبة، وحدة معالجة رسومات، ولكنْ ربَّما الأهم من ذلك وفقاً لشودري ستكون "حقوق

المفاخرة".

يطلب أحد التحديات من المخترقين الحصول على نموذج للهلوسة (بالمعلومات) أو اختراع حقيقة حول شخص سياسي أو شخصية رئيسية.

تقول الدكتورة سيرافينا غولدفارب - تارانت، رئيسة سلامة الذكاء الاصطناعي في كوير، إنه بينما من المعروف أنَّ النماذج يمكن أنْ تصنع الحقائق، فليس من الواضح مدى تكرار 

حدوثها. 

وقالت "نعلم أنَّ النماذج تهلوس بالمعلومات، لكنْ سيكون من المفيد زيادة الوعي بعدد المرات التي يحدث فيها ذلك. ما زلنا لا نعرف". سيتمّ أيضاً اختبار اتساق النماذج، وتقول غولدفارب - تارانت إنَّ هناك مخاوف بشأن كيفية عملها عبر اللغات المختلفة.

"حراس الأمن لا يعملون بلغات مختلفة ويعتقد الناس أنهم كذلك".

على سبيل المثال، إذا سألت العديد من نماذج اللغة الإنجليزية الكبيرة عن كيفية الانضمام إلى منظمة إرهابية، فلن يقدّموا لك إجابة، بسبب آلية الأمان. رغم ذلك، اسأل النموذج بلغة مختلفة ويعطيك قائمة بالخطوات التي يجب اتباعها.

كانت غولدفراب – تارانت تجهز نماذج كوير للحدث، وتقول إنه على الرغم من قوتها "لا يعني ذلك عدم وجود ثغرات أمنية في نماذجنا، لم نعثر عليها بعد".


المشكلات الحالية

هذا الحدث يحظى بدعم البيت الأبيض. في أيار، أعلن عن الحدث، قائلاً إنه "سيوفر معلومات مهمة للباحثين والجمهور حول تأثيرات هذه النماذج، وسيمكن شركات الذكاء الاصطناعي والمطورين من اتخاذ خطوات لإصلاح المشكلات الموجودة 

فيها".

أثارت وتيرة تطوير الشركات لأدواتها مخاوف بشأن انتشار المعلومات المضللة، خاصة قبل الانتخابات الرئاسية الأميركيَّة العام المقبل. في تموز، التزمت سبع شركات رائدة في مجال الذكاء الاصطناعي بضمانات طوعيَّة لإدارة المخاطر التي تشكلها التكنولوجيا، لكن الضمانات القانونيَّة ستستغرق وقتاً أطول ليتم الاتفاق عليها.

تقول الدكتور شودري إنَّ هناك "سباق تسلح منظماً يحدث الآن"، وهذا الحدث هو وسيلة لتسليط الضوء على مشكلات الذكاء الاصطناعي الحالية بدلاً من التهديدات الوجوديَّة.

وتقول إنَّ الأمر لا يتعلق بالسؤال عما إذا كان بإمكان الذكاء الاصطناعي تفجير سلاح نووي، بل يتعلق أكثر بتحدي الأنظمة "لمعرفة ما إذا كانت تشتمل على أضرار وتحيزات".


ماذا يحدث بعد ذلك؟

تريد شودري أن تعرف "ماذا يحدث عندما، أو إذا وجدنا مشكلات مع هذه النماذج. ماذا ستكون استجابة شركات التكنولوجيا"؟

"إذا لم نتمكن من إنشاء نماذج تنبؤية بسيطة للتعلم الآلي للذكاء الاصطناعي خالية من التحيز والتمييز، فلن يكون لدينا نماذج ذكاء اصطناعي أكثر تعقيداً في المستقبل خالية من هذه المشكلات".