المرصد الأوروبي لمحاربة التطرف ـ هولندا
حين يتغذى الذكاء الاصطناعي على نفسه.. “جنون البقر”؟
DW – الذكاء الاصطناعي يحتاج إلى التدريب بكميات بيانات هائلة هي غالبا من شبكة الإنترنت التي تنتشر فيها بازدياد صور ونصوص منتَجة بواسطة الذكاء الاصطناعي نفسه، ولكن تدريبه على بيانات من إنتاجه هو نفسه هو أمر محفوف بالمخاطر؟
إذا أُخضعت نماذج الذكاء الاصطناعي لتدريب متكرر باستخدام بيانات مُنتَجة أصلاً بهذه التقنية فستبدأ بعرض محتويات متضاربة بصورة متزايدة، وهي مشكلة يتناولها عدد كبير من الدراسات العلمية.
فالنماذج القائمة على أدوات الذكاء الاصطناعي التوليدي مثل برنامج “تشات جي بي تي” والتي تتيح إنتاج مختلف أنواع المحتوى بناءً على طلب بسيط بلغة يومية، تحتاج إلى التدريب من خلال كميات هائلة من البيانات.
معلومات غير منطقية
وغالباً ما يتم الحصول على هذه البيانات من شبكة الإنترنت التي تنتشر فيها كميات متزايدة من الصور والنصوص المُنَتَجة بواسطة الذكاء الاصطناعي. لكن هذا الوضع -الذي يوصَف بعبارة “الالتهام الذاتي”، إذ يتغذى الذكاء الاصطناعي على نفسه- يؤدي هذا إلى انهيار النماذج فتصبح الأدوات منتِجة لمعلومات غير منطقية حتى تصل إلى نتائج لا معنى لها، على ما توصَّلت إليه مقالة نُشرت في مجلة “نيتشر” العلمية في نهاية يوليو 2024.
ومع استخدام هذا النوع من البيانات الذي يُطلَق عليه تسمية “بيانات اصطناعية” -لأنّه مُنتَج بواسطة آلات- يقل غنى العيِّنة التي تَستمِد منها نماذج الذكاء الاصطناعي معطياتها لتوفير إجاباتها. فالوضع مشابه لإنشاء نسخة من صورة بتقنية المسح الضوئي ثم طباعتها. ومع تكرار النسخ والطباعة، ستفقد النتيجة جودتها حتى تصبح في النهاية غير مقروءة.
ظاهرة غريبة
وتوصَّل باحثون من جامعتي “رايس” و”ستانفورد” الأمريكيتين إلى النتيجة نفسها بعد دراسة نماذج الذكاء الاصطناعي التي تولِّد الصور، مثل “ميدجورني” و”دال-اي” و”ستيبل ديفيوجن”. وأظهر الباحثون أن الصور المُنتَجة أصبحت مليئة بعناصر غير متطابقة كلما أضافوا -إلى النموذج- بيانات “مُنتَجة بواسطة الذكاء الاصطناعي”، وشبَّهوا هذه الظاهرة بمرض “جنون البقر”.
“البيانات الاصطناعية” أرخص
وتستخدم شركات الذكاء الاصطناعي في مرات كثيرة “بيانات اصطناعية” لتدريب برامجها، بسبب سهولة الحصول عليها ووفرتها وتكلفتها المنخفضة مقارنة ببيانات ابتكرها البشر. وفي حديث إلى وكالة فرانس برس يقول الباحث المتخصص في التقنيات الجديدة لدى جامعة موناش في أستراليا جاثان سادوفسكي إن “مصادر البيانات البشرية غير المستغلة والعالية الجودة والقابلة للقراءة آلياً تصير أكثر ندرة”.
ويقول ريتشارد بارانيوك -أحد معدي المقالة المنشورة في “نيتشر”- في بيان: “في حال لم تتم مراقبة الوضع على مر أجيال عدة فسنكون أمام نتيجة كارثية تتمثل في متلازمة انهيار نماذج ستؤثر سلباً على جودة البيانات في الإنترنت وتنوُّعها”.
مستقبل مجال الذكاء الاصطناعي
قد تهدد شبكة الإنترنت المليئة بمحتوى مُنتَج بواسطة الذكاء الاصطناعي -ونماذج تحولت إلى “مجنونة”- مستقبل مجال الذكاء الاصطناعي الذي يشهد ازدهاراً كبيراً وتبلغ قيمته مليارات الدولارات، بحسب هؤلاء العلماء.
ويقول جاثان سادوفسكي إن “التساؤل الفعلي بالنسبة إلى الباحثين والشركات الذين يعملون على بناء أنظمة ذكاء اصطناعي هو في أي مرحلة يتجاوز استخدام البيانات الاصطناعية الحد اللازم؟”.
يرى بعض المتخصصين الآخرين أن المشكلة مبالغ فيها وليست حتمية قط. وفي حديث إلى وكالة “فرانس برس”، تؤكد شركتا “أنثروبك” و”هاغينغ فايس” المتخصصتان في مجال الذكاء الاصطناعي، أنهما تستخدمان بيانات مُنتَجَة بواسطة الذكاء الاصطناعي.
نظرية مثيرة – لكن هل هي غير واقعية؟
ويقول أنتون لوزكوف، وهو مهندس متخصص في التعلم الآلي لدى شركة “هاغينغ فايس” إن المقالة المنشورة في مجلة “نيتشر” توفر رؤية نظرية مثيرة للاهتمام لكن غير واقعية إلى حد كبير. ويؤكد أن “تدريب النماذج على مجموعات عدة من البيانات الاصطناعية لا يتم في الواقع”. ويقر لوزكوف بأن الخبراء في الذكاء الاصطناعي يشعرون بالإحباط من واقع الإنترنت، على غرار ما ينتاب الجميع.ويضيف أن “جزءاً من الإنترنت هو مجرد قمامة”، مشيراً إلى أن شركته بدأت تبذل جهوداً كبيرة لتنظيف البيانات التي تم جمعها، وحذفت أحياناً ما يصل إلى 90% منها.
رابط مختصر.. https://eocr.eu/?p=11933
المرصد الأوروبي لمحاربة التطرف ـ هولندا