ميل روبوتات الدردشة للاذعان يثير تساؤلات حول دقة الاجابات
أخبار هنا العالم - اذا كنت تستخدم روبوتات دردشة مدعومة بالذكاء الاصطناعي مثل شات جي بي تي او جيميني او كلود بشكل يومي، فربما لاحظت انها تقدم اجابات واثقة ومنسقة، لكنها قد تعيد تعديل ردها عند التشكيك فيها بسؤال مثل هل انت متأكد.
وفي كثير من الحالات، يعيد الروبوت صياغة الاجابة بشكل قد يتناقض جزئيا او كليا مع رده الاول، واذا تكرر التشكيك فقد يتراجع مرة اخرى، ما يعكس نمطا سلوكيا متكررا في هذه النماذج اللغوية.
ووفقا لتقرير نشرته صحيفة انديان اكسبرس، اشار الدكتور راندال س اولسون المؤسس المشارك والمدير التقني لشركة Goodeye Labs الى ان هذا السلوك المعروف بالتملق يعد من اكثر اخفاقات الذكاء الاصطناعي الحديث توثيقا.
كما نشرت شركة انثروبيك المطورة لروبوت كلود ورقة بحثية عام 2023 اوضحت فيها ان النماذج المدربة على ملاحظات المستخدمين تميل الى تقديم اجابات ترضي المستخدم بدلا من الالتزام بالدقة الكاملة، نتيجة اسلوب التعلم المعزز من ملاحظات البشر.
وتشير دراسات اخرى الى ان هذا النمط واسع الانتشار، حيث اظهرت اختبارات على نماذج GPT 40 وClaude Sonnet وGemini 1.5 Pro في مجالات مثل الرياضيات والطب ان هذه الانظمة غيرت اجاباتها في نحو 60 بالمئة من الحالات عند اختبارها من قبل المستخدمين.
وكانت المشكلة قد برزت بشكل واضح في ابريل من العام الماضي بعد تحديث لاحد نماذج GPT 40 جعل شات جي بي تي اكثر ميلا للموافقة، قبل ان تعلن الشركة اصلاح الخلل، غير ان خبراء يرون ان جوهر المشكلة المرتبط بطريقة التدريب والحوافز لم يتغير بشكل جذري.
مشاركة عبر:
-
مبتكر آيبود يدعو أبل لاعادة الجهاز مستفيدة من الحنين وتجربة الاستماع النقية -
ترقيات محتملة في Galaxy S26 Ultra قبل الكشف الرسمي -
استقالات في xAI تثير جدلا حول أولويات السلامة والحوكمة -
نظارات ميتا الذكية تستعد لإعادة ميزة التعرف على الوجوه -
ظهور عمليات جاكبوتينغ في الولايات المتحدة يثير قلق السلطات المصرفية -
بايت دانس تطلق نموذج الذكاء الاصطناعي دوباو 2.0 لمواجهة منافستها ديب سيك -
باحثة سابقة تنتقد تحول أوبن إيه آي نحو الربحية وإضافة الإعلانات -
أبل تؤكد مسار إطلاق نسخة سيري الجديدة هذا العام -
أنثروبيك تتجاوز تقييم 380 مليار دولار وتشتد المنافسة مع أوبن إيه آي -
ميتا تخطط لمحاكاة نشاط المستخدمين الغائبين على مواقع التواصل