الذكاء الاصطناعيّ في الأعمال: تعظيمُ المكاسب وتقليل المخاطرِ
وسطَ حمى الذكاءِ الاصطناعيِّ، تعرّفْ على ثلاثةِ مخاطرَ تهددُ عملكَ وأفضلِ الممارساتِ لمعالجتها
صرّح أكثرُ من نصفِ الرّؤساءِ التنفيذيينَ الذينَ شملهمُ الاستطلاعُ الذي أجرتهُ مجلةُ Fortune وDeloitte مؤخّراً أنَّهم قاموا بالفعلِ بتطبيقِ الذّكاءِ الاصطناعيِّ التوليديِّ في أعمالِهم بهدفِ زيادةِ الكفاءةِ. ويتطلّعُ الكثيرُ منهم الآنَ إلى استخدامِ الذكاءِ الاصطناعيِّ التوليديِّ لاكتشافِ رؤىً جديدةٍ، وتقليلِ التكاليفِ التشغيليةِ، وتسريعِ وتيرةِ الابتكارِ.
المكاسبُ السريعةُ والتحدياتُ الأمنيةُ
يمكنُ تحقيقُ مكاسبَ سريعةٍ نسبياً من خلالِ تطبيقِ الذكاءِ الاصطناعيِّ، خاصةً في مجالاتِ الكفاءةِ والأتمتةِ. ومع ذلك، بينما تسعى الشركاتُ إلى دمجِ الذكاءِ الاصطناعيِّ بشكلٍ أعمقَ في عملياتِها، يصبحُ من الضروريِّ جداً فهمُ المخاطرِ السلبيةِ المصاحبةِ له، لأنَّ الأمنَ غالباً ما يُعتبرُ في مرحلةٍ لاحقةٍ من التفكيرِ.
الأمنُ كفكرةٍ لاحقةٍ
في الأيامِ الأولى للابتكارِ التكنولوجيِّ، ومعَ انتقالِ الأعمالِ من أجهزةِ الكمبيوترِ الشّخصيةِ المستقلّةِ إلى مشاركةِ الملفاتِ عبرَ شبكاتِ المؤسّساتِ والإنترنتِ، تطوّرتْ التّهديداتُ من الفيروساتِ إلى الفيروساتِ المتنقلةِ ثمَّ إلى برامجِ التّجسسِ والجذورِ الخفيةِ. استغلّتْ هذه التّهديداتُ نواقلَ الهجومِ الجديدةَ من خلالِ استغلالِ البنيةِ التّحتيةِ لتكنولوجيا المعلوماتِ والاتصالاتِ باستخدامِ تقنياتِ الأتمتةِ والتّهرّبِ. علاوةً على ذلك، أطلقَ هذا التطورُ اقتصاداً إجرامياً يزدهرُ اليومَ. وفي كلِّ مرحلةٍ من هذه المراحلِ، ظهرتْ تقنياتُ الأمانِ وأفضلُ الممارساتِ لمعالجةِ أنواعٍ جديدةٍ من التهديداتِ. أضافتِ المؤسساتُ طبقاتٍ جديدةً من الدفاعِ، وذلكَ غالباً بعدَ بعضِ التداعياتِ الحتميةِ والمؤلمةِ.
التّحدّياتُ الحديثة
في الآونةِ الأخيرةِ، وسعتْ أجهزةُ إنترنتِ الأشياءِ وبيئاتُ التكنولوجيا التشغيليةِ سطحَ الهجومِ، حيثُ أصبحتْ متّصلةً بأنظمةِ تكنولوجيا المعلوماتِ والسّحابةِ وحتى الهواتفِ المحمولةِ. على سبيلِ المثالِ، أنظمةُ المياهِ، الأجهزةُ الطبيةُ، ومصابيحُ الإضاءةِ الذّكيةِ. علاوةً على ذلكَ، عزّزتْ حركةُ "الحوسبةِ كما أنتَ"، التي أصبحتْ الآنَ هي القاعدةَ، هذا الاتّجاهَ نحوَ الاتصالِ الفائقِ.
لا تزالُ المؤسّساتُ تحاولُ فهمَ مدى تعرّضِها للمخاطرِ وكيفيةِ بناءِ المرونةِ معَ استمرارِ تكاثرِ مساراتِ المهاجمينَ وخلقِ فرصٍ للتسويةِ.
المخاطرةُ مقابلَ المكسب
يضيفُ استخدامُ الذكاءِ الاصطناعيِّ طبقةً أخرى من التعقيدِ للدّفاعِ عن مؤسستكَ. تستخدمُ الجهاتُ المهددةُ قدراتِ الذّكاءِ الاصطناعيِّ لحثِّ المستخدمينَ على التحايلِ على تكويناتِ الأمانِ وأفضلِ الممارساتِ، ممّا يؤدّي إلى الاحتيالِ وإساءةِ استخدامِ بياناتِ الاعتمادِ وانتهاكاتِ البياناتِ. كما أنَّ اعتمادَ الذكاءِ الاصطناعيِّ داخلَ المؤسساتِ يجلبُ مخاطرهُ الكامنةَ والمحتملةَ، حيثُ يمكنُ للمستخدمينَ تسريبُ معلوماتٍ حساسةٍ عن غيرِ قصدٍ أثناءَ استخدامهم لأدواتِ الذكاءِ الاصطناعيِّ للمساعدةِ في إنجازِ مهامِّهم. على سبيلِ المثالِ، تحميلُ تعليماتٍ برمجيةٍ خاصةٍ إلى أداةٍ تدعمُ الذكاءَ الاصطناعيَّ للمساعدةِ في تحديدِ الأخطاءِ والإصلاحاتِ، أو المعلوماتِ السريةِ للشركةِ للمساعدةِ في تلخيصِ ملاحظاتِ الاجتماعِ.
أصلُ المشكلةِ يكمنُ في أنَّ الذكاءَ الاصطناعيَّ يُعتبرُ "صندوقاً أسودَ"، ممّا يعني أنَّ هناكَ نقصاً في الرّؤيةِ حولَ كيفيةِ عملِه، وكيفَ تمَّ تدريبُهُ، وما الذي سينتجُ عنهُ ولماذا. منَ الصعبِ حتى على الأشخاصِ الذينَ يطورونَ الأدواتَ باستخدامِ الذكاءِ الاصطناعيِّ فهمُ كلِّ ما يفعلهُ، ولماذا يفعلُ الأشياءَ بطريقةٍ معينةٍ، وما هي المقايضاتُ التي ينطوي عليها.
أفضلُ الممارسات
يواجهُ قادةُ الأعمالِ موقفاً صعباً عندَ محاولةِ تحديدِ الدورِ الذي يجبُ أنْ يلعبهُ الذكاءُ الاصطناعيُّ في أعمالِهم وكيفيةِ الموازنةِ بينَ المخاطرِ والمكافآتِ. وفيما يلي ثلاثُ أفضلِ ممارساتٍ يمكنُ أنْ تساعدهم في ذلكَ:
-
كنْ حذراً بشأنِ البياناتِ التي تعرضُها لأداةٍ تدعمُ الذكاءَ الاصطناعيَّ: قد يبدو تحميلُ جدولِ بياناتكَ الماليِّ ربعِ السّنويِّ وطرحُ الأسئلةِ لإجراءِ بعضِ التّحليلاتِ أمراً غيرَ ضارٍّ، لكنْ فكِّرْ في الآثارِ المترتبةِ إذا وقعتْ هذهِ المعلوماتُ في الأيدي الخطأ. يجبُ على المؤسّساتِ التأكّدُ من أنَّ البياناتَ الحسّاسةَ لا تنعرضُ على الذّكاءِ الاصطناعيِّ دونَ إجراءاتِ حمايةٍ مناسبةٍ.
-
التحقّقُ من صحةِ مخرجاتِ الأداةِ: قد ينتجُ الذّكاءُ الاصطناعيُّ إجاباتٍ غيرَ دقيقةٍ بثقةٍ. لذا، يجبُ أنْ يكونَ لديكَ فكرةٌ عمَّا يجبُ أنْ تكونَ عليهِ الإجابةُ. إذا لم يكنْ هذا هو ما توقّعتَهُ على الإطلاقِ، فاطرحِ السؤالَ بطريقةٍ أخرى، وانتقلْ إلى مصدرٍ آخرَ للتحقّقِ منْ صحةِ المعلوماتِ. من الضروريِّ أنْ تقومَ المؤسّساتُ بمراجعةِ وتدقيقِ مخرجاتِ الذكاءِ الاصطناعيِّ للتأكّدِ من دقّتها وموثوقيتِها.
-
انتبهْ إلى الأنظمةِ التي يمكنُ لأداةِ تمكينِ الذّكاءِ الاصطناعيِّ الخاصةِ بكَ الاتصالُ بها: إذا كانَ لديكَ أدواتٌ مدعمةٌ بالذّكاءِ الاصطناعيِّ تعملُ داخلَ بيئتِك، فيجبُ أنْ تكونَ على درايةٍ بالأنظمةِ الأخرى التي تربطُ هذهِ الأدواتَ بها، وما يمكنُ لهذهِ الأنظمةِ الوصولُ إليه. من المهمِّ فهمُ الاتصالاتِ الداخليةِ والخارجيةِ التي تجريها أدواتُ الذكاءِ الاصطناعيِّ لضمانِ عدمِ تعرضِ البياناتِ الحساسةِ للخطرِ.
التفاؤلُ والإثارةُ
وعلى الرّغمِ من ارتسامِ ملامحِ التّفاؤلِ والإثارةِ بشأنِ الجانبِ الإيجابيِّ المحتملِ للذّكاءِ الاصطناعيِّ داخلَ المؤسساتِ، يجبُ توخّي الحذرِ والفهمُ العميقُ لتلكَ المخاطرِ المحتملةِ. فمنْ خلالِ التعاملِ الذكيِّ والممنهجِ معَ هذهِ التّكنولوجيا، يمكنُ تحقيقُ أقصى استفادةٍ ممكنةٍ منها.
باختصارٍ، الذّكاءُ الاصطناعيُّ يمثلُ فرصةً هائلةً لتعزيزِ الكفاءةِ والابتكارِ في الأعمالِ. ولكنْ يجبُ التعاملُ معهُ بحذرٍ وفهمٍ عميقٍ لتجنبِ المخاطرِ المحتملةِ وضمانِ تحقيقِ أقصى فائدةٍ ممكنةٍ.
منْ خلالِ تطبيقِ أفضلِ الممارساتِ والاستفادةِ من الخبراتِ السابقةِ، يمكنُ للشركاتِ أنْ تحققَ توازناً بينَ الاستفادةِ من فوائدِ الذكاءِ الاصطناعيِّ وحمايةِ نفسها منَ المخاطرِ المحتملةِ. الوعيُ والاحتياطُ هما المفتاحُ لضمانِ أنَّ الذكاءَ الاصطناعيَّ يساهمُ في تعزيزِ النجاحِ المستدامِ للأعمالِ.