الرجاء الانتظار...

Main Logo
اخبار هنا العالم

دراسة: المعتمدون على الذكاء الاصطناعي أكثر استعداداً للكذب والخداع


الثلاثاء   00:10   30/09/2025
Article Image

أخبار هنا العالم - حذّرت دراسة جديدة من أن الأشخاص الذين يعتمدون بكثافة على الذكاء الاصطناعي في أداء واجباتهم الوظيفية أو الدراسية يكونون أكثر استعداداً لخداع الآخرين والكذب عليهم.

ووفق الدراسة، التي أجراها معهد ماكس بلانك للتنمية البشرية في برلين، فإن بعض المستخدمين ينسون استخدام «الكوابح الأخلاقية» عند تفويض مهامّهم لأدوات الذكاء الاصطناعي لكي تؤديها بدلاً منهم.

وقال الباحثون في المعهد الألماني: «كان من المرجح بشكل كبير أن يمارس الناس الغش، عندما سمح لهم باستخدام برامج الذكاء الاصطناعي، بدلاً من القيام بذلك بأنفسهم»، مًعربين عن استغرابهم من «مستوى عدم الأمانة» الذي رصدوه.

وخلص فريق معهد ماكس بلانك، الذي أجرى البحث بالتعاون مع باحثين من جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا، إلى أن أنظمة الذكاء الاصطناعي تُسهل عمليات الغش، حيث تبيَّن أنها «تلتزم في كثير من الأحيان» بالتعليمات غير الأخلاقية التي يصدرها مستخدموها غير الأمناء.

وقدَّم الباحثون أمثلة عملية على استخدام الذكاء الاصطناعي في الغش، مثل استخدام محطات الوقود خوارزميات تحديد الأسعار لتنسيقها مع أسعار المنافسين، مما يؤدي إلى ارتفاع أسعار الوقود للمستهلكين.

كما أشارت الدراسة إلى أن خوارزمية أخرى يستخدمها أحد تطبيقات النقل

الذكي شجّعت السائقين على تغيير مواقعهم الحقيقية؛ ليس استجابة لاحتياجات الركاب، بل بهدف خلق نقص مصطنع في عدد المركبات المتاحة وزيادة الأسعار.

وأظهرت النتائج أن منصات الذكاء الاصطناعي كانت أكثر ميلاً إلى اتباع تعليمات مشبوهة بنسبة تتراوح بين 58 في المائة و98 في المائة مقارنة بالبشر، حيث تباينت النسبة من منصة إلى أخرى، في حين كانت النسبة لدى البشر 40 في المائة حداً أقصى.

وحذّر معهد ماكس بلانك من أن تدابير الحماية المتاحة حالياً في نماذج اللغة الكبيرة للذكاء الاصطناعي لم تكن فعالة في ردع السلوكيات غير الأخلاقية.

وأوضح الباحثون أنهم جرّبوا مجموعة من استراتيجيات الحماية، وخلصوا إلى أن قواعد منع السلوكيات الخادعة يجب أن تكون دقيقة للغاية لكي تصبح فعالة.


مشاركة عبر: