في عالم الروبوت والذكاء الاصطناعي ما الذي تغير؟

منذ 2 سنوات

 بعد أيام قليلة من إعلان ‏Google‏ و ‏Microsoft‏ أنهما سيقدمان محركات بحث تم ‏إنشاؤها بواسطة تقنيات روبوتية تعتمد على برمجيات ذكاء اصطناعي قادرة على ‏إنتاج نصوص تحاكي ما يصنعه البشر، شعر الكثيرون بالقلق من أن المساعد ‏الصوتي المدعوم بالذكاء الاصطناعي والمتاحة بالمنازل لدينا لا يمكن الوثوق بهم

‏ بصفة عامة، حذر باحثو الذكاء الاصطناعي في ‏Google‏ الشركة من أن روبوتات ‏الدردشة ستكون ببغاوات عشوائية (من المحتمل أن تصرخ على أشياء خاطئة أو ‏غبية أو مسيئة) و عرضة للهلوسة (من شأنها اختلاق الأشياء فقط )

‏ وكتب فريق من ‏DeepMind، شركة الذكاء الاصطناعي المملوكة لشركة ‏Alphabet، العام الماضي في عرض تقديمي عن المخاطر المحتملة: روبوتات ‏المحادثة هذه ليست ذكية في الواقع

إنهم أغبياء يكذبون

‏ ولم يستغرق الأمر وقتًا طويلاً حتى تثبت روبوتات المحادثة هذه النقطة، فقد أظهر ‏إعلان الأسبوع الماضي لروبوت ‏Google ‎‏ الذي أطلقت عليه اسم ‏Bard، إجابات ‏فاشلة

في غضون ذلك، فشلت الإجابات التي قدمها روبوت ‏Bing، سيدني، في ‏الوقوف حتى أمام عمليات التحقق من المعلومات الأولية والبدائية

‏ يرى محللون أن روبوتات الدردشة هي محركات هراء مصممة لتقول الأشياء بيقين ‏لا جدال فيه ونقص كامل في الخبرة، فلماذا نشتري هراءهم؟ ‏ بصراحة، لا أحد يعرف حقًا سبب تصديق أي شخص لأي شيء

بعد آلاف السنين ‏من النقاش، لم يتفق الفلاسفة وعلماء النفس وعلماء الأعصاب الرائدون في العالم ‏حتى على آلية لسبب تصديق الناس للأشياء، أو حتى ماهية المعتقدات

لذلك من ‏الصعب معرفة كيفية عملها، أو لماذا يكون أحد الأشياء أكثر تصديقًا من الآخر

‏لكن هناك بعض التكهنات حول سبب سقوطنا في غرام تطبيق ‏ChatGPT‏: مثلاً ‏نحن البشر نحب شخصًا أنيقًا يتمتع بأوراق اعتماد تبدو مثيرة للإعجاب، وهذا ما ‏تبديه تلك التطبيقات، بل مع مرور الوقت، ستصبح الروبوتات أكثر تعقيداً في ‏خداعنا

‏ أرقام رئيسة على مدار العقدين الماضيين، كان هناك الكثير من الأبحاث حول سبب اعتقاد ‏الناس بالمعلومات الخاطئة

افترض الكثيرون أننا سنواجه في الغالب خيالًا يتظاهر ‏بأنه حقيقة في شكل دعاية أو وسائل التواصل الاجتماعي

لكن هذا على وشك ‏التغيير

سيتم الآن تضمين المعلومات المضللة في محركات البحث التي نستخدمها

‏ الآن، ليست كل المعتقدات معتمدة بقوة، أو حتى مبنية على الأدلة، لذلك ربما ‏سيتعامل الأشخاص مع إجابات روبوتات الدردشة بالطريقة التي نتعامل بها مع أي ‏معلومات جديدة

‏ يقول جو فيتريول، عالم السياسة في جامعة ليهاي الذي يدرس المعلومات المضللة، ‏إنه يتوقع تصديق الناس لروبوت الدردشة إذا أخبرهم بأشياء تتوافق مع معتقداتهم ‏وآرائهم الحالية - تمامًا كما يفعلون مع نتائج ‏Google‏ التقليدية

وما إذا كان ‏روبوت المحادثة يقول الحقيقة أو هلوسات لن يهم حقًا

‏ وتكمن المشكلة في أننا لا نعرف حقًا ما الذي يجعل الناس يقعون تحت تأثير تفسير ‏على آخر

تشير بعض الأبحاث إلى أن التفسيرات التي تتمتع بأكبر قدر من القوة ‏هي تلك التي تكون أبسط وأكثر قابلية للتطبيق على نطاق واسع

‏ قبل أيام قليلة فقط من إعلان كل من ‏Google‏ و ‏Microsoft‏ عن رحلتهما ‏الوشيكة لتطوير تلك الروبوتات، نشر فريق من علماء الاجتماع في جامعة ‏ستانفورد طبعة أولية رائعة

لقد عرضوا على آلاف الأشخاص مقالات قصيرة ‏مقنعة حول الموضوعات الساخنة مثل حظر الأسلحة الهجومية وضرائب الكربون

‏تمت كتابة بعض الإصدارات بواسطة ‏chatbot GPT-3‎، وأخرى بواسطة ‏الإنسان

ثم قام العلماء بقياس مدى تغيير الناس لآرائهم بناءً على المقالات

‏ اتضح أن الرسائل التي تم إنشاؤها بواسطة الذكاء الاصطناعي كانت مقنعة تمامًا ‏مثل الرسائل البشرية

لكن الجزء الجامح هو السبب

عندما قام الباحثون ‏باستخلاص المعلومات من البشر، قال أولئك الذين فضلوا مقالات الشات بوت إن ‏الرسائل الحرفية من صنع الإنسان اعتمدت كثيرًا على الحكايات والصور، بينما ‏كان ‏GPT-3‎‏ أكثر استنادًا إلى الأدلة ومنطقًا جيدًا

‏ كما أن الجودة ذاتها التي جعلت الروبوت أقل إنسانية جعلت البشر أكثر عرضة ‏لتصديقه

تمامًا مثل أفلام الخيال العلمي، لم تشعر روبوتات المحادثة بالشفقة أو ‏الندم أو الخوف ولم يتوقفوا على الإطلاق أبدًا حتى اقتنع البشر

‏ الكسل البشري إحدى النظريات حول سبب انتشار المعلومات المضللة والأخبار الزائفة هي أن ‏الناس كسالى تمامًا

يشترون كل ما يبيعه مصدر موثوق به

‏ وإذا كانت روبوتات المحادثة تحصل على المعلومات المضللة بشكل صحيح معظم ‏الوقت، فهذا جيد بما فيه الكفاية

‏ سوف تقدم لنا روبوتات الدردشة المدعومة بالذكاء الاصطناعي إجابات سهلة

‏علينا فقط أن نتذكر أن هذا ليس ما يجب أن نطلبه