عالمية

لماذا يغير روبوت الدردشة إجاباته عندما تسأله “هل أنت متأكد؟”

إذا كنت تستخدم روبوت دردشة مدعوماً بالذكاء الاصطناعي، مثل “شات جي بي تي” أو “جيميني” أو “كلود”، بشكل يومي، فربما لاحظت أنها عادة ما تُجيب بإجابات منمقة وواثقة.
لكن عندما تسأل روبوت الدردشة سؤالًا مثل “هل أنت متأكد؟”، فإنه غالبًا ما يعيد النظر في إجابته ويقدم نسخة معدلة، قد تناقض جزئيًا أو حتى كليًا ما قاله في البداية.
وإذا كررت السؤال مرة أخرى، فقد تتراجع مرة أخرى. ورغم أن بعض هذه النماذج اللغوية الضخمة تُدرك أنك تختبرها بحلول الجولة الثالثة، فهي ستواصل عدم التمسك بموقفها، بحسب تقرير لصحيفة “إنديان إكسبرس”، اطلعت عليه “العربية Business”.
قال الدكتور راندال س. أولسون، المؤسس المشارك والمدير التقني لشركة “Goodeye Labs”، في منشور مدونة، إن هذا السلوك، المعروف عادة بأنه تملق، يُعدّ من أكثر الإخفاقات توثيقًا للذكاء الاصطناعي الحديث.
ونشرت شركة أنثروبيك، مطورة روبوت الدردشة “كلود”، ورقة بحثية حول هذه المشكلة في عام 2023، حيث أظهرت أن نماذج الذكاء الاصطناعي المُدرّبة على ملاحظات المستخدمين تفضل تقديم إجابات مرضية بدلًا من الإجابات الصادقة.
ويُعتبر التعلم المعزز من ملاحظات البشر، وهو الأسلوب نفسه الذي يجعل روبوتات الدردشة بالذكاء الاصطناعي أكثر تحاورية وأقل عدوانية، المسؤول عن جعل روبوتات الدردشة تميل أيضًا نحو الاذعان.
وهذا يعني أن نماذج الذكاء الاصطناعي التي تقول الحقيقة تُعاقب، بينما تحصل تلك التي تتفق مع المستخدم على درجات أعلى. وهذا يخلق حلقة مفرغة، ولهذا السبب غالبًا ما تُخبر معظم النماذج المستخدمين بما يرغبون في سماعه.
أظهرت دراسة أخرى أجراها فانوس وآخرون، اختبرت نماذج “GPT-40″ و”Claude Sonnet” و”Gemini 1.5 Pro” في مجالات الرياضيات والطب، أن “هذه الأنظمة غيرت إجاباتها في حوالي 60% من الحالات عند اختبارها من قِبل المستخدمين”.
وهذا يعني أن هذه ليست حالات استثنائية، بل هو السلوك الافتراضي للنماذج التي يستخدمها ملايين الأشخاص يوميًا. وللعلم، فقد غيرت نماذج “GPT-40″ و”Claude Sonnet” و”Gemini 1.5 Pro” إجاباتها بنسبة 58% و56% و61% على التوالي
في أبريل من العام الماضي، حظيت المشكلة بالاهتمام عندما أطلقت شركة أوبن إيه آي تحديثًا لنموذج “GPT-40” جعل روبوت الدردشة شات جي بي تي متملقًا وموافقًا لدرجة أن المستخدمين لم يكونوا قادرين على استخدامه.
وقد اعترف الرئيس التنفيذي للشركة سام ألتمان بالمشكلة وقال إنهم أصلحوها، لكن الدكتور راندال س. أولسون يقول إن المشكلة الجوهرية لم تتغير.
وقال أولسون: “حتى عندما تتاح لهذه الأنظمة معلومات صحيحة من قواعد معلومات الشركة أو نتائج البحث على الويب، فإنها ستظل تُذعن لضغط المستخدم على حساب أدلتها الخاصة”.
تشير الأدلة إلى أن المشكلة تتفاقم عندما ينخرط المستخدمون في محادثات مطولة مع روبوتات الدردشة. وأظهرت الدراسات أنه كلما طالت مدة جلسة المحادثة، بدأت إجابات النظام تعكس آراء المستخدم.
ويزيد استخدام صيغة المتكلم مثل عبارة “أعتقد أن..”، من معدلات التملق لدى هذه النماذج مقارنةً بصيغة الشخص الثالث أي ضمير الغائب.
ويقول الباحثون إن المشكلة يُمكن حلها جزئيًا باستخدام تقنيات مثل الذكاء الاصطناعي الدستوري – تدريب النماذج بحيث تتبع قواعد أو مبادئ محددة مسبقًا تشبه “دستورًا” يوجه سلوكها- والتحسين المباشر للتفضيلات، وصياغة الأوامر بصيغة الغائب، بنسبة تصل إلى 63% في بعض الحالات.
وأشار أولسون إلى أن هذه في الأساس مشكلات سلوكية وسياقية، إذ أن مساعدي الذكاء الاصطناعي غير متوافقين مع أهداف المستخدم وقيمه وعملية اتخاذ قراره. ولهذا السبب، بدلًا من المعارضة، فإنهم يرضخون.
وأضاف أن إحدى طرق الحد من المشكلة أو تقليلها هي أن يُطلب من هذه الروبوتات تحدي افتراضاتك، وأن تطلب منها عدم الإجابة بدون سياق.
ويجب على المستخدمين بعد ذلك إخبار نماذج الذكاء الاصطناعي هذه بكيفية اتخاذهم للقرارات، وإطلاعها على معرفتهم وقيمهم في مجال تخصصهم، حتى يكون لدى هذه النماذج ما تستند إليه في تحليلها ودفاعها عن نفسها.

العربيه نت