باريس: أ ف ب
إذا أُخضعت نماذج الذكاء الاصطناعي لتدريب متكرر باستخدام بيانات مُنتَجة أصلاً بهذه التقنيَّة، فستبدأ بعرض محتويات متضاربة بصورة متزايدة، وهي مشكلة يتناولها عددٌ كبيرٌ من الدراسات العلميَّة.
النماذج القائمة على أدوات الذكاء الاصطناعي التوليدي مثل برنامج «تشات جي بي تي» والتي تتيح إنتاج مختلف أنواع المحتوى بناءً على طلبٍ بسيطٍ بلغة يوميَّة، تحتاج إلى التدريب من خلال كميات هائلة من البيانات.
ويؤدي هذا الوضع الذي يوصف بعبارة «الالتهام الذاتي» إذ يتغذى الذكاء الاصطناعي على نفسه، إلى انهيار النماذج فتصبح الأدوات مُنتجة لمعلومات غير منطقيَّة حتى تصل إلى نتائج لا معنى لها، على ما توصّلت إليه مقالة نُشرت في مجلة «نيتشر» العلميَّة.
ومع استخدام هذا النوع من البيانات الذي يُطلق عليه تسميَّة «بيانات اصطناعيَّة» لأنّه مُنتَج بواسطة آلات، يقل غنى العيّنة التي تستمد منها نماذج الذكاء الاصطناعي معطياتها لتوفير إجاباتها. فالوضع مشابهٌ لإنشاء نسخة من صورة بتقنيَّة المسح الضوئي ثم طباعتها. ومع تكرار النسخ والطباعة، ستفقد النتيجة جودتها حتى تصبح في النهايَّة غير مقروءة. توصّل باحثون من جامعتي «رايس» و»ستانفورد» الأميركيتين إلى النتيجة نفسها بعد دراسة نماذج الذكاء الاصطناعي التي تولّد الصور، مثل «ميدجورني» و»دال-اي» و»ستيبل ديفيوجن». وأظهر الباحثون أنّ الصور المُنتَجة أصبحت مليئة بعناصر غير متطابقة كلّما أضافوا بيانات «مُنتَجة بواسطة الذكاء الاصطناعي» إلى النموذج، وشبّهوا هذه الظاهرة بمرض «جنون البقر».
فهذا الوباء الذي ظهر في المملكة المتحدة، يعود مصدره إلى استخدام العلف الحيواني الذي يتم الحصول عليه من أجزاء غير مأكولة من جيف أبقار وحيوانات تحمل الفيروس، لتغذيَّة المواشي. وتستخدم شركات الذكاء الاصطناعي في مرات كثيرة «بيانات اصطناعيَّة» لتدريب برامجها، بسبب سهولة الحصول عليها ووفرتها وتكلفتها المنخفضة مقارنة ببيانات ابتكرها البشر.
ويقول ريتشارد بارانيوك، أحد معدّي المقالة المنشورة في «نيتشر»، في بيان «في حال لم تتم مراقبة الوضع على مرّ أجيال عدة، فسنكون أمام نتيجة كارثيَّة تتمثل في متلازمة انهيار نماذج ستؤثر سلباً على جودة البيانات في الانترنت وتنوّعها».