مُستَحسَن


تنتج أداة الذكاء الاصطناعي من جوجل إجابات مضللة تثير قلق الخبراء

اسأل Google عما إذا كانت القطط قد ذهبت إلى القمر، وكان يُظهر قائمة مرتبة من مواقع الويب حتى تتمكن من اكتشاف الإجابة بنفسك. فهو يقدم الآن إجابة فورية تم إنشاؤها بواسطة الذكاء الاصطناعي، والتي قد تكون صحيحة أو لا. وقال محرك البحث جوجل الذي تم تجديده حديثا ردا على استفسار من صحفي في وكالة أسوشيتد […]

محمد أمين بن فاضل profile picture
بواسطة محمد أمين بن فاضل Verified Verified
June 10, 2024 | Updated June 10, 2024, 12:44 AM ET | 5 min read
image

اسأل Google عما إذا كانت القطط قد ذهبت إلى القمر، وكان يُظهر قائمة مرتبة من مواقع الويب حتى تتمكن من اكتشاف الإجابة بنفسك.

فهو يقدم الآن إجابة فورية تم إنشاؤها بواسطة الذكاء الاصطناعي، والتي قد تكون صحيحة أو لا.

وقال محرك البحث جوجل الذي تم تجديده حديثا ردا على استفسار من صحفي في وكالة أسوشيتد برس: “نعم، التقى رواد الفضاء بالقطط على القمر، ولعبوا معهم واعتنوا بهم”.

وأضاف: “على سبيل المثال، قال نيل أرمسترونج: “خطوة صغيرة لرجل” لأنها كانت خطوة قطة. كما أرسل باز ألدرين قططًا في مهمة أبولو 11″.

لا شيء من هذا صحيح. تمت مشاركة أخطاء مماثلة – بعضها مضحك وبعضها أكاذيب ضارة – على وسائل التواصل الاجتماعي منذ أن أطلقت جوجل هذا الشهر ملخصات الذكاء الاصطناعي، وهي تجديد لصفحة البحث الخاصة بها والتي تضع في كثير من الأحيان الملخصات في أعلى نتائج البحث.

وأثارت الميزة الجديدة قلق الخبراء الذين حذروا من أنها قد تؤدي إلى إدامة التحيز والمعلومات الخاطئة وتعرض الأشخاص الذين يطلبون المساعدة في حالات الطوارئ للخطر.

عندما سألت ميلاني ميتشل، باحثة الذكاء الاصطناعي في معهد سانتا في في نيو مكسيكو، جوجل عن عدد المسلمين الذين تولوا رئاسة الولايات المتحدة، أجابت بثقة بنظرية مؤامرة تم فضحها منذ فترة طويلة: “كان للولايات المتحدة رئيس مسلم”. .” ، باراك حسين أوباما.”

وقال ميتشل إن الملخص يدعم هذا الادعاء من خلال الاستشهاد بفصل من كتاب أكاديمي كتبه مؤرخون. ولكن هذا الفصل لم يقدم ادعاء كاذبا: بل أشار فقط إلى النظرية الكاذبة.

وقال ميتشل في رسالة بالبريد الإلكتروني إلى وكالة أسوشييتد برس: “إن نظام الذكاء الاصطناعي الخاص بجوجل ليس ذكيًا بما يكفي لإدراك أن هذا الاقتباس لا يدعم فعليًا هذا الادعاء”. “نظرًا لمدى عدم موثوقيتها، أعتقد أن ميزة النظرة العامة للذكاء الاصطناعي هذه غير مسؤولة للغاية ويجب إيقافها دون اتصال بالإنترنت.”

وقالت جوجل في بيان يوم الجمعة إنها تتخذ “إجراءات سريعة” لتصحيح الأخطاء (مثل كذب أوباما) التي تنتهك سياسات المحتوى الخاصة بها؛ واستخدامها في “تطوير تحسينات أوسع” يجري تنفيذها بالفعل. ولكن في معظم الحالات، تقول جوجل إن النظام يعمل كما ينبغي بفضل الاختبارات المكثفة قبل إصداره للعامة.

وقالت جوجل في بيان مكتوب: “إن الغالبية العظمى من النظرات العامة حول الذكاء الاصطناعي توفر معلومات عالية الجودة، مع روابط للتعمق أكثر في الويب”. “العديد من الأمثلة التي رأيناها كانت عبارة عن استفسارات غير عادية، وقد رأينا أيضًا أمثلة تم التلاعب بها أو لم نتمكن من إعادة إنتاجها.”

ملف – تظهر شعارات Google في بحث في نيويورك، في 11 سبتمبر 2023.

من الصعب إعادة إنتاج الأخطاء التي ترتكبها نماذج لغة الذكاء الاصطناعي، ويرجع ذلك جزئيًا إلى أنها عشوائية بطبيعتها. إنهم يعملون من خلال التنبؤ بالكلمات التي من شأنها أن تستجيب بشكل أفضل للأسئلة المطروحة بناءً على البيانات التي تم تدريبهم عليها. إنهم عرضة لاختلاق الأشياء، وهي مشكلة تمت دراستها على نطاق واسع والمعروفة باسم الهلوسة.

واختبرت وكالة أسوشييتد برس ميزة الذكاء الاصطناعي من جوجل بعدة أسئلة وشاركت بعض إجاباتها مع خبراء في هذا المجال. عندما سُئل روبرت إسبينوزا، أستاذ علم الأحياء في جامعة ولاية كاليفورنيا، نورثريدج، وهو أيضًا رئيس الجمعية الأمريكية لعلماء الأسماك والزواحف، عندما سُئل عما يجب فعله بشأن لدغة الثعبان، أعطى جوجل إجابة كانت “شاملة بشكل مثير للإعجاب”.

ولكن عندما يأتي الأشخاص إلى جوجل بسؤال طارئ، فإن احتمال أن تتضمن إجابة شركة التكنولوجيا خطأ يصعب ملاحظته يمثل مشكلة.

تقول إميلي إم بندر، أستاذة اللغويات ومديرة مختبر اللغويات الحاسوبية بجامعة واشنطن: “كلما كنت أكثر توتراً أو اندفاعاً أو اندفاعاً، زادت احتمالية قبول الإجابة الأولى التي تأتي في طريقك”. . “وفي بعض الحالات، يمكن أن تكون هذه مواقف حرجة للحياة.”

وهذا ليس مصدر قلق بندر الوحيد، فقد ظل يحذر Google بشأنه لعدة سنوات. عندما نشر باحثو جوجل بحثًا في عام 2021 بعنوان “إعادة التفكير في البحث” يقترح استخدام نماذج لغة الذكاء الاصطناعي باعتبارهم “خبراء مجال” يمكنهم الإجابة على الأسئلة بشكل موثوق، كما يفعلون الآن، رد بندر وزميله شيراج شاه بمقال يشرح سبب ذلك. فكرة سيئة.

وحذروا من أن أنظمة الذكاء الاصطناعي هذه يمكن أن تؤدي إلى إدامة العنصرية والتمييز الجنسي الموجودة في كنوز ضخمة من البيانات المكتوبة التي تم تدريبهم عليها.

وقال بندر: “المشكلة في هذا النوع من المعلومات الخاطئة هي أننا نسبح فيها”. “ولهذا السبب من المرجح أن يؤكد الناس تحيزاتهم. ومن الصعب اكتشاف المعلومات الخاطئة عندما تؤكد تحيزاتك.”

وكان هناك مصدر قلق آخر أعمق: التنازل عن استرجاع المعلومات لروبوتات الدردشة كان يؤدي إلى تدهور مصادفة سعي الإنسان للمعرفة، ومحو الأمية حول ما نراه على الإنترنت، وقيمة التواصل في المنتديات عبر الإنترنت مع أشخاص آخرين يمرون بنفس التجربة.

تعتمد هذه المنتديات ومواقع الويب الأخرى على جوجل لإرسال الأشخاص إليها، لكن نظرة عامة جديدة على الذكاء الاصطناعي من جوجل تهدد بتعطيل تدفق حركة المرور عبر الإنترنت لكسب المال.

كما تابع منافسو جوجل رد الفعل عن كثب. واجهت شركة البحث العملاقة ضغوطًا لأكثر من عام لتقديم المزيد من ميزات الذكاء الاصطناعي لأنها تتنافس مع OpenAI، صانع ChatGPT، والشركات الناشئة مثل Perplexity AI، التي تهدف إلى التنافس مع Google من خلال تطبيق الأسئلة والأجوبة الاصطناعي الخاص بها ذكاء.

وقال ديمتري شيفيلينكو، مدير الأعمال في شركة Perplexity: “يبدو أن جوجل استعجلت في هذا الأمر”. “هناك الكثير من الأخطاء السهلة في الجودة.”

رابط المصدر

محمد أمين بن فاضل Verified Author Verified Author

مرحبًا، أنا محمد أمين بن فاضل، مدير في Arabfolio News ومقرها في تونس العاصمة، تونس. أنا شغوف بالإعلام والصحافة، وأنا ملتزم بإسماع الأصوات المتنوعة ومشاركة القصص المقنعة. انضم إلي في هذه الرحلة بينما نستكشف معًا المشهد المتطور باستمرار للأخبار والأفكار.

صورة محمد أمين بن فاضل