نهج جديد يمكّن الذكاء الاصطناعي من شرح قراراته
أخبار هنا العالم - مع تزايد اندماج أنظمة الذكاء الاصطناعي في قطاعات حساسة، مثل الرعاية الصحية والأنظمة ذاتية القيادة، يبرز سؤال أساسي: هل يمكن الوثوق بقراراتها؟
فعلى الرغم من أن النماذج الحديثة تحقق دقة عالية، فإن طريقة تفكيرها تظل في كثير من الأحيان غير واضحة. هذه «الصندوق الأسود» أصبحت واحدة من أبرز التحديات في هذا المجال. يقدّم باحثون في معهد ماساتشوستس للتكنولوجيا (MIT) نهجاً جديداً يهدف إلى معالجة هذه المشكلة، من خلال تمكين أنظمة الذكاء الاصطناعي من تفسير قراراتها بطريقة مفهومة للبشر.
ما وراء الصندوق
في التطبيقات الواقعية، لا تكفي الدقة وحدها. فعندما يحدد نظام ذكاء اصطناعي مرضاً من صورة طبية أو يتخذ قراراً مرتبطاً بالسلامة، يحتاج المستخدم إلى فهم الأسباب التي قادت إلى هذا القرار. ومن دون هذه الشفافية، قد تفشل الأنظمة الدقيقة في كسب الثقة. وقد سعت تقنيات سابقة إلى فتح هذا «الصندوق الأسود»، لكنها غالباً ما قدّمت تفسيرات معقدة أو يصعب فهمها لغير المتخصصين. وهنا يكمن التحدي في تقديم تفسيرات دقيقة وفي الوقت نفسه واضحة.
مشاركة عبر:
-
روبوتات الدرّاجة تحقق توازناً ديناميكياً وتتجاوز العقبات -
غوغل تعيد تعريف البحث بالذكاء الاصطناعي المخصص -
تقرير بالأرقام: الذكاء الاصطناعي يحقق عوائد ملموسة للشركات -
إكس تتقدم بمقترح قبل ساعات من استحقاق غرامة أوروبية كبيرة على المنصة -
الذكاء الاصطناعي خدع الملايين منذ بدء حرب إيران -
إشادة دولية بالدور العالمي لمنظمة التعاون الرقمي في سد الفجوات -
ألعاب تتحدث وتردّ… هل يعيد الذكاء الاصطناعي تشكيل تجربة اللّعب لدى الأطفال -
أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود» -
هل أصبحت مرونة البرمجيات شرطاً أساسياً لحماية الاقتصاد الرقمي في السعودية -
آلات تتعلّم الحياة اليومية بعيون البشر