هل أصبح الذكاء الاصطناعي شريكاً سرياً للموظفين في العمل؟
مع تزايد الإرهاق الوظيفيّ، يعتمد الكثيرون على الذكاء الاصطناعي لتسريع المهامّ وتحسين الإنتاجيّة، فهل يُنذر هذا بخطرٍ خفيٍّ؟

في ظلّ موجةٍ من التّوتّر والاحتراق الوظيفي والقلق في أماكن العمل، ليس من المستغرب أن يلجأ الكثيرون إلى استخدام أنظمة الذكاء الاصطناعي في وظائفهم دون الحصول على إذنٍ صريحٍ أو حتّى بتحدّي قواعد الشّركة. فهم يلجأون لهذه الأنظمة لتوفير الوقت الثّمين وتسريع أداء المهامّ المُملّة، وقد عبّر أحد الموظّفين لمذيعي الـ"بي بي سي" (BBC) عن هذه الفكرة بقوله: "إنّ طلب السّماحة بعد وقوع الخطأ أسهل من الحصول على إذنٍ مسبقٍ".
ومع ذلك، فإنّ المخاوف تزداد، خاصّةً بعد ما أظهرته الأنباء الأخيرة حول مخاطر نظام الذكاء الاصطناعي الصّينيّ الثّوريّ "ديب سيك" (DeepSeek)، إذ يمكن أن يشكّل الذكاء الاصطناعي تهديداً مباشراً لشركتك، حيث قد تتسرّب معلوماتٌ حسّاسةٌ دون علمك، حتّى إن بذلت قصارى جهودك للحدّ من تلك المخاطر، في حال استخدام الموظّفين للأنظمة بطرقٍ غير مشروعةٍ. ولذلك، قد يكون الوقت قد حان لإيلاء اهتمامٍ أكبر لكيفيّة استخدام شركتك لتقنيّات الذكاء الاصطناعي في بيئة العمل، ومدى فاعليّة السّياسات المعتمدة في هذا المجال.
وفقاً لاستطلاعٍ أجرته شركة "سوفتوير إيه جي" (Software AG) الألمانيّة المتعدّدة الجنسيّات والمتخصّصة في تحليلات الأعمال، يستخدم نصف الموظّفين في مجال المعرفة المشاركين في الاستطلاع أدوات الذكاء الاصطناعي الشّخصيّة في مكان العمل، حسب ما ذكرته هيئة الإذاعة البريطانيّة. وفي هذا السّياق، يقصد بـ "الموظّف في مجال المعرفة" الأشخاص الّذين يعتمدون بشكلٍ أساسيٍّ على العمل المكتبيّ أو الحاسوبيّ، ممّا يعني أنّ هذا يشمل شريحةً واسعةً من الموظّفين، وليس مقتصراً على العاملين في مجال تكنولوجيا المعلومات فقط. وقد أظهر الاستطلاع عدّة أسبابٍ تدفع الموظّفين لاستخدام أدوات الذكاء الاصطناعي الّتي يختارونها، فمنهم من أشار إلى أنّ جهة عمله لا توفّر أنظمة ذكاء اصطناعيّ رسميّةً، ومنهم من فضّل ببساطةٍ استخدام أدواته الشّخصيّة.
ومن ناحيةٍ أخرى، لخصّ أحد مطوّري البرمجيّات أثناء حديثه مع قناة بي بي سي الفوائد المتعلّقة بتوفير الوقت عند استخدام الذكاء الاصطناعي على مكتبه قائلاً: "يمكن اعتباره أداةً ذكيّةً للإكمال التّلقائيّ، ولكنّها فعّالة جدّاً". وأوضح قائلاً: "يقوم بإكمال 15 سطراً من الشّيفرة دفعةً واحدةً، ثمّ تراجع ما كتبه لتجد أنّه يتطابق مع ما كنت ستكتبه بنفسك، ممّا يتيح لك المزيد من الوقت لإنجاز مهامّك".
وفي سياقٍ متّصلٍ، أفاد موظّفٌ آخر في إحدى شركات تخزين البيانات بأنّه غير متأكّدٍ من السّبب وراء حظر شركته لاستخدام أدوات الذكاء الاصطناعي الخارجيّة، مشيراً إلى أنّ الأمر يبدو متعلّقاً برغبة الشّركة في السّيطرة: "أعتقد أنّ الأمر يتعلّق بالتّحكّم، إذ تريد الشّركات أن يكون لها القول في الأدوات الّتي يستخدمها موظّفوها؛ إنّها مرحلةٌ جديدةٌ في عالم تكنولوجيا المعلومات، ولذلك يتّبعون نهجاً محافظاً".
كذلك، أظهر استطلاعٌ آخر أجرته منصّة "مودل" (Moodle) الأستراليّة مفتوحة المصدر للتّعلّم أنّ حوالي 52% من الموظّفين في الولايات المتّحدة يستخدمون أدوات الذكاء الاصطناعي لاستكمال الدّورات التّدريبيّة الإلزاميّة في العمل. وقد أفاد 21% منهم بأنّ الذكاء الاصطناعي ساعدهم في الإجابة على الأسئلة الصّعبة، في حين اعتمد 12% منهم على أدائه الدّورة التّدريبيّة بالكامل بدلاً منهم.
وقد فسّر سكوت أندربيرغ، الرّئيس التّنفيذيّ لشركة مودل، هذه النّتائج في بيانٍ نقلته صحيفة "إتش آر دايف" (HR Dive) المتخصّصة في أخبار الصّناعة، حيث قال: "يواجه العمّال الأمريكيّون في معظم القطاعات تحدّياتٍ كبيرةً، خاصّةً الشّباب منهم، فمعدّل الاحتراق الوظيفيّ مرتفعٌ، وخوف الذكاء الاصطناعي من تهديد مكانتهم في العمل بادٍ". وأضاف أندربيرغ أنّ: "برامج التّدريب والتّطوير المتاحة لهم لا تقدّم المساعدة الكافّة، وفي كثيرٍ من الحالات، قد تزيد الأمور سوءاً".
ومن الواضح أنّ هناك مخاطر جليّةً عند استخدام الموظّفين لأدوات الذكاء الاصطناعي غير الرّسميّة في أداء عملهم، إذ يمكن لهذه الأنظمة تخزين الطّلبات أو التّعليمات الّتي ترفع إليها لاستخدامها كبياناتٍ تدريبيّةٍ لتحسين أدائها. وهذا يعني أنّ المعلومات قد تتسرّب لاحقاً، سواءً عندما يقوم مستخدمٌ آخر بالاستعلام عن النّظام، أو من خلال ثغرةٍ أمنيّةٍ غير متوقّعةٍ. وقد برز نظام الذّكاء الاصطناعيّ الصّينيّ المثير للنّقاش ديب سيك هذا النّوع من المخاطر، إذ أظهر تقريرٌ أنّ النّظام يرسل البيانات مباشرةً إلى خوادم في الصّين. لذلك، إذا كان موظّفوك يرفعون معلوماتٍ حسّاسةً خاصّةً بشركتك إلى نظام ذكاء اصطناعي غير رسميٍّ لمساعدتهم في إنجاز مهامّهم، فإنّ هذا يشكّل مصدر قلقٍ بالغٍ.
وفي النّهاية، تظهر هذه الاستطلاعات، ولا سيّما تلك الّتي أبرزت العناء الزّمنيّ المتكبّد في الدّورات التّدريبيّة الّتي يجبر عليها بعض العاملين في مجال المعرفة، أنّ بعض أماكن العمل قد تقصر على توفير الدّعم الكافيّ لموظّفيها. فإذا شعر العمّال بالحاجة إلى استخدام الذكاء الاصطناعي لتسريع العمليّات الرّوتينيّة، فقد يكون ذلك دليلاً على نقص التّحفيز أو عدم توفير الأدوات المناسبة لهم لأداء مهامّهم بفعاليّةٍ.
إذا لم تتبنّ شركتك بعد تقنيات الذكاء الاصطناعي، والأهمّ من ذلك، إذا لم تكن لديك سياساتٌ أو إرشاداتٌ واضحةٌ لاستخدام الذكاء الاصطناعي، فقد حان الوقت لمعالجة هذه القضيّة قبل حدوث مشاكل قد تؤدّي إلى وقوع أخطاء جسيمةٍ، مثل تضمين معلوماتٍ خاطئةٍ ناتجةٍ عن هلوسات الذكاء الاصطناعي في التّقارير، وذلك نتيجة عدم إدراك المخاطر المحتملةٍ.