الرجاء الانتظار...

Main Logo
اخبار هنا العالم

انتشار أدوات الذكاء الاصطناعي بين الموظفين يتفوق على تحركات الشركات


الجمعة   02:28   05/09/2025
Article Image

أخبار هنا العالم - في الوقت الذي تسارع فيه فرق قيادة الشركات إلى فهم وتبني تطبيقات الذكاء الاصطناعي مثل «تشات جي بي تي»، كان الموظفون قد سبقوها بالفعل في استخدام هذه الأدوات داخل أماكن العمل، سراً ودون إشراف رسمي. فقد لجأ العاملون إلى الذكاء الاصطناعي لتلخيص الملاحظات، وأتمتة المهام، وتحقيق أهداف الأداء بموارد محدودة، بحسب ما كتبت سيندي رودريغيز كونستابل(*).

ويكشف تقرير مؤشر اتجاهات العمل من «مايكروسوفت» أن ثلاثة من كل أربعة موظفين يستخدمون الذكاء الاصطناعي في عملهم، مع إحضار نحو 80% من موظفي الشركات الصغيرة والمتوسطة وأيضاً 78% من العاملين في الشركات الكبرى لأدواتهم الخاصة إلى مكان العمل. وتشمل هذه الأدوات مولدات النصوص مثل «جي بي تي»، وبرامج الأتمتة، ومنصات التصميم المدعومة بالذكاء الاصطناعي.

هذه الظاهرة المعروفة باسم «أحضر ذكاءك الاصطناعي الخاص» (BYOAI) تشبه في بداياتها سياسة «إحضار جهازك الخاص» (BYOD)، التي شهدت بداية استخدام الموظفين لأجهزتهم الشخصية في مهام العمل، قبل أن تطور الشركات سياسات تنظيمية لمخاطر الأمن والخصوصية. ولكن مع BYOAI، تتضاعف المخاطر، إذ يتم إدخال خوارزميات غير خاضعة لرقابة أو تقييم من قبل أقسام تقنية المعلومات أو الشؤون القانونية.

وفي ظل بيئة تنظيمية متغيرة، يعترف ما يقرب من نصف الموظفين الذين يستخدمون الذكاء الاصطناعي بأنهم يفعلون ذلك بشكل «غير لائق»، مثل الاعتماد الكامل على الإجابات دون التحقق، أو مشاركة معلومات حساسة مع هذه الأدوات.

وتُعد هذه الظاهرة انعكاساً لواقع جديد في أماكن العمل، حيث يتعامل موظفون مرهقون وفرق تعاني من نقص الموارد مع توافر متزايد لأدوات ذكاء اصطناعي قوية، مما يدفعهم إلى تحمل مسؤولية استخدام التكنولوجيا بأنفسهم، غالباً دون علم أصحاب العمل، ما يفتح الباب أمام مخاطر تسرب البيانات وأزمات أمنية محتملة.

وتشير الإحصاءات إلى أن نحو 60% من الموظفين اعترفوا بارتكاب أخطاء بسبب الذكاء الاصطناعي، في حين أقر 57% باستخدامه بشكل خاطئ، و44% بسوء استخدامه عن قصد. وعلى الرغم من هذه المخاطر، أظهرت تقارير حديثة أن أقل من ربع المؤسسات الكبرى تشعر بأنها مستعدة تماماً لإدارة مخاطر الذكاء الاصطناعي، فيما تمتلك 6% فقط فرقاً متخصصة في تقييم تلك المخاطر وتطبيق إجراءات الأمان.

وأوضحت أليسون سبانيولو، كبيرة مسؤولي الخصوصية في شركة «غايدبوست سوليوشن»، المتخصصة في التحقيقات والامتثال الأمني، أن الاستخدام غير المراقب لأدوات الذكاء الاصطناعي الخارجية يثير مخاوف كبيرة تتعلق بفقدان البيانات، وتسريب الملكية الفكرية، وانتهاكات حقوق النشر، إضافة إلى الخروقات الأمنية المحتملة.


مشاركة عبر: