Main Logo

اخبار هنا العالم

اخبار هنا العالم

ميل روبوتات الدردشة للاذعان يثير تساؤلات حول دقة الاجابات


الأحد   18:34   15/02/2026
ميل روبوتات الدردشة للاذعان يثير تساؤلات حول دقة الاجابات

أخبار هنا العالم - اذا كنت تستخدم روبوتات دردشة مدعومة بالذكاء الاصطناعي مثل شات جي بي تي او جيميني او كلود بشكل يومي، فربما لاحظت انها تقدم اجابات واثقة ومنسقة، لكنها قد تعيد تعديل ردها عند التشكيك فيها بسؤال مثل هل انت متأكد.

وفي كثير من الحالات، يعيد الروبوت صياغة الاجابة بشكل قد يتناقض جزئيا او كليا مع رده الاول، واذا تكرر التشكيك فقد يتراجع مرة اخرى، ما يعكس نمطا سلوكيا متكررا في هذه النماذج اللغوية.

ووفقا لتقرير نشرته صحيفة انديان اكسبرس، اشار الدكتور راندال س اولسون المؤسس المشارك والمدير التقني لشركة Goodeye Labs الى ان هذا السلوك المعروف بالتملق يعد من اكثر اخفاقات الذكاء الاصطناعي الحديث توثيقا.

كما نشرت شركة انثروبيك المطورة لروبوت كلود ورقة بحثية عام 2023 اوضحت فيها ان النماذج المدربة على ملاحظات المستخدمين تميل الى تقديم اجابات ترضي المستخدم بدلا من الالتزام بالدقة الكاملة، نتيجة اسلوب التعلم المعزز من ملاحظات البشر.

وتشير دراسات اخرى الى ان هذا النمط واسع الانتشار، حيث اظهرت اختبارات على نماذج GPT 40 وClaude Sonnet وGemini 1.5 Pro في مجالات مثل الرياضيات والطب ان هذه الانظمة غيرت اجاباتها في نحو 60 بالمئة من الحالات عند اختبارها من قبل المستخدمين.

وكانت المشكلة قد برزت بشكل واضح في ابريل من العام الماضي بعد تحديث لاحد نماذج GPT 40 جعل شات جي بي تي اكثر ميلا للموافقة، قبل ان تعلن الشركة اصلاح الخلل، غير ان خبراء يرون ان جوهر المشكلة المرتبط بطريقة التدريب والحوافز لم يتغير بشكل جذري.


مشاركة عبر: