تكنولوجيا / اليوم السابع

«هل أنت متأكد؟».. سؤال يربك روبوتات الذكاء الاصطناعى ويغيّر ردودها

إذا كنت تستخدم روبوتات الدردشة المدعومة بالذكاء الاصطناعي، مثل ChatGPT أو Gemini أو Claude، بشكل يومي، فربما لاحظت أنها عادةً ما تُجيب بإجابات مُنمّقة وواثقة، لكن عند سؤالها "هل أنت متأكد؟"، غالبًا ما تُعيد النظر في إجابتها وتُقدّم نسخة مُعدّلة، قد تُناقض جزئيًا أو حتى كليًا ما قالته في البداية.

عندما تشكّك في الذكاء الاصطناعي.. لماذا يغيّر رأيه بسرعة؟

وإذا كرّرت السؤال مرة أخرى، فقد تتراجع عن إجابتها، مع أن بعض هذه النماذج اللغوية الضخمة تُدرك أنك تختبرها بحلول الجولة الثالثة، إلا أنها لن تُحافظ على موقفها، وفي منشور على مدونة، يقول الدكتور راندال س. أولسون، المؤسس المشارك والمدير التقني لشركة Goodeye Labs، إن هذا السلوك، المعروف باسم التملق، يُعدّ من أكثر حالات الفشل الموثقة في الذكاء الاصطناعي الحديث.

ونشرت شركة أنثروبيك، المطورة لنموذج كلود، ورقة بحثية حول هذه المشكلة عام ، أوضحت فيها أن النماذج المدربة على ملاحظات المستخدمين تُفضل تقديم إجابات مُرضية بدلاً من الإجابات الصادقة، ويُعدّ التعلم المعزز من ملاحظات المستخدمين (RLHF) هو الأسلوب نفسه الذي يجعل روبوتات الدردشة المدعومة بالذكاء الاصطناعي أكثر سلاسة في المحادثة وأقل إثارة للجدل، ولكنه، كما اتضح، يجعلها تميل أيضاً إلى التوافق مع المستخدم.

 

لماذا تبدو روبوتات الدردشة أقل يقينًا عند الضغط عليها؟

وهذا يعني أن نماذج الذكاء الاصطناعي التي تُقدم الحقيقة تُعاقب، بينما تحصل تلك التي تُوافق المستخدم على درجات أعلى. يُنشئ هذا حلقة مفرغة، ولذلك غالباً ما تُقدم معظم النماذج للمستخدمين ما يُريدون سماعه، وأظهرت دراسة أخرى أجراها فانوس وآخرون، اختبرت نماذج GPT-40 من OpenAI، وكلود سوني، وجيميني 1.5 برو في مجالات الرياضيات والطب، أن "هذه الأنظمة غيّرت إجاباتها في حوالي ٦٠٪ من الحالات عند سؤال المستخدمين عنها".

وهذا يعني أن هذه ليست حالات استثنائية، بل هي السلوك الافتراضي للنماذج التي يستخدمها ملايين الأشخاص يومياً. لمن يتساءل، فقد انقلبت نتائج GPT-40 وClaude Sonnet وGemini 1.5 Pro بنسبة 58% و56% و61% تقريبًا على التوالي.

في أبريل من العام الماضي، برزت هذه المشكلة عندما أطلقت OpenAI تحديثًا لـ GPT-40 جعل روبوت الدردشة المدعوم بالذكاء الاصطناعي مفرطًا في التملق والود لدرجة أنه أصبح غير قابل للاستخدام، وأقرّ الرئيس التنفيذي للشركة، سام ألتمان، بالمشكلة وقال إنهم قاموا بإصلاحها، لكن الدكتور راندال إس. أولسون يقول إن المشكلة الأساسية لم تتغير.

ويضيف أولسون: "حتى عندما تتمكن هذه الأنظمة من الوصول إلى معلومات صحيحة من قواعد معارف الشركة أو نتائج البحث على الإنترنت، فإنها ستظل تستجيب لضغط المستخدم بدلًا من الاعتماد على أدلتها الخاصة"، وتشير الأدلة إلى أن المشكلة تتفاقم عندما ينخرط المستخدمون في محادثات مطولة مع روبوتات الدردشة المدعومة بالذكاء الاصطناعي. وقد أظهرت الدراسات أنه كلما طالت مدة الجلسة، بدأت إجابات النظام تعكس آراء المستخدم.

يزيد استخدام صيغة المتكلم، مثل عبارة "أعتقد..."، من معدلات التملق لدى هذه النماذج مقارنةً باستخدام صيغة الغائب، فيما يقول الباحثون إن هذه المشكلة يُمكن حلها جزئيًا باستخدام تقنيات مثل الذكاء الاصطناعي الدستوري، وتحسين التفضيلات المباشر، والتوجيه بصيغة الغائب، بنسبة تصل إلى 63% في بعض الحالات.

ويوضح أولسون أن هذه المشكلات سلوكية وسياقية في الأساس، إذ لا تتوافق مساعدات الذكاء الاصطناعي مع أهداف المستخدم وقيمه وعملية اتخاذ قراراته. ولهذا السبب، بدلًا من الاختلاف، تُذعن هذه المساعدات، ويضيف أن إحدى طرق الحد من هذه المشكلة أو تقليلها هي توجيه هذه الروبوتات الذكية لتحدي افتراضات المستخدم، وطلب عدم الإجابة دون سياق.

ويجب على المستخدمين بعد ذلك إخبار هذه النماذج الذكية بكيفية اتخاذهم للقرارات، وإطلاعها على معرفتهم وقيمهم في المجال، حتى يكون لدى هذه النماذج ما تُناقشه وتُدافع عنه.

 

ملحوظة: مضمون هذا الخبر تم كتابته بواسطة اليوم السابع ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من اليوم السابع ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.

قد تقرأ أيضا