تأثير الذكاء الاصطناعي التوليدي على الهندسة الاجتماعية
هذه التكنولوجيا تتطور، وستعاني شركتك بسببها، لذلك إليك ما يجب أن تعرفه
بقلم ستو شاورمان Stu Sjouwerman، المؤسس والمدير التنفيذي في KnowBe4
ممارسةُ الخداعِ والتّلاعب البشريّ القديمةُ قد اتّخذت شكلاً جديداً في العصرِ الرقميّ الحالي، ألا وهو: الهندسة الاجتماعيّة. في حين أنَّ أساليبَ الهندسة الاجتماعية مثل تصيُّدِ المعلوماتِ الشّخصيّةِ (Phishing) كانت تُستخدم منذُ فترةٍ طويلةٍ، ولا تزالُ جهاتٌ خطرةٌ تستغلُّ نقاط الضّعفِ البشريّةَ الطّبيعيةَ مثل الفضول والطمع، إلّا أنّ ظهورَ توليدِ اللّغةِ بواسطةِ الذّكاء الاصطناعيّ (A.I.) قد دفعَ الهندسةَ الاجتماعيّةَ إلى مستوى تهديدٍ جديدٍ تماماً. [1]
شاهد أيضاً: الدمج الاستراتيجي للذكاء الاصطناعي في عملك: ما الذي ينبغي أن تستخدمَه؟
تأثير الذكاء الاصطناعي التوليدي على الهندسة الاجتماعية
الذّكاءُ الاصطناعيّ التّوليديّ هو أكبرُ تقنيّةٍ متقدّمةٍ رأيناها منذ ظهورِ الهواتفِ الذّكيّةِ. وعلى الرغم من أنّها لا تزال في مراحلها الأولى من ناحيةِ اعتمادها على نطاقٍ واسعٍ في الأعمالِ، إلّا أنّ الجهاتِ الإجراميّة السيبرانيّة قد بدأت بالفعلِ في الاستفادةِ من أدواتٍ مثل ChatGPT كي تطوّرَ استغلالها للتعقيدِ، والسّرعةِ، والنّطاقِ التي تتمتعُ بها الهندسة الاجتماعية. إذ يخشى نحو 82% من الموظفين من قدرةِ الذّكاءِ الاصطناعيّ على إنتاج رسائل تصيّدِ المعلومات (Phishing).
كما يتزايدُ اعتمادُ الذّكاء الاصطناعيّ في عمليّاتِ الاحتيالِ التّابعةِ للهندسةِ الاجتماعيّةِ، والّتي تشملُ مجموعةً متنوّعةً من الممارساتِ الخادعةِ بما في ذلك:
شاهد أيضاً: لا تقع في فخ الوعود الزائفة للذكاء الاصطناعي
1. التصيّد بقواعدٍ لغويّةٍ مثاليّة: أحد أبرز مميزاتِ حملاتِ التّصيّدِ التّقليديّةِ هو أنّها تحتوي على أخطاءٍ لغويّةٍ مع أخطاءٍ إملائيّةٍ، وغالباً ما تكون مكتوبةً بشكلٍ سيّءٍ. وذلك لأنّ غالبيةَ الأشخاصِ الذين يمارسونَ التّصيّد ليسوا من النّاطقين الأصليين باللّغةِ الإنجليزيّةِ وموجودون في الخارجِ. الآن، بفضلِ أدواتٍ مثلَ ChatGPT، يمكنُ للمهاجمين صياغة حملاتِ تصيّدٍ باستخدامِ النّبرةِ، والقواعدِ اللّغويّةِ، والتّفاصيل الثّقافية الصّحيحة، وبأيّةِ لغةٍ يختارون.
2. الهجمات السّيبرانيّة المؤتمتة والمتعدّدة المراحل: هناك زيادةٌ حادّةٌ في هجمات الهندسة الاجتماعيّة المتعدّدةِ المراحلِ والمؤتمتةِ التي تحفّزُ الضحايا المحتملينَ على اتباعِ سلسلةٍ من الخطواتِ حتى يتمّ تسليمُ حمولةٍ خبيثةٍ أو استخلاصُ معلوماتٍ حسّاسةٍ. إذ ترتبطُ عادةً هذه الأساليب الهجوميّة الجديدة بتبنّي واستخدامِ الذكاء الاصطناعي التوليدي.
3. الفيديوهات المزيفة واستنساخ الصّوت: الفيديوهات المزيفةُ هي شكلٌ من أشكال الصوت والفيديو الاصطناعيّةِ التي يمكنُ إنشاؤها باستخدامِ الذكاء الاصطناعي. باعتبارِ أنّها قد تكونُ أخطرَ ناقلٍ للتّهديداتِ التي يولّدها الذكاء الاصطناعي، تشكّلُ الفيديوهات المزيفة خطراً كبيراً على الأفراد، والشّركات، والأنظمة القضائية، والسياسةِ، والمجتمعِ. فقد بدأت الجهات الإجراميّة السّيبرانيّة بالفعل في استخدام الفيديوهات المزيفة لانتحالِ الشّخصيّات السّياسيّة وشخصيّات المشاهيرِ، وتشويه السّمعة، والنّصب على المؤسّسات، وحتى خداع أنظمة التّعرّفِ على الوجوه والبصمات الحيويّة. ويبدو أنّ الطّلبَ على خدمات إنشاءِ الفيديوهات المزيفة يرتفعُ بسرعةٍ صاروخيّةٍ على الشّبكة المظلمة.
4. تجميع ملفات معلومات المستخدمين واختيار الأهداف: يمكنُ تسخيرُ الذكاء الاصطناعي لدعمِ اختيارِ ضحايا الهندسة الاجتماعية بناءً على معايير محدّدة وتجميع ملفاتِ المستخدمين. على سبيل المثال، يمكنُ للذكاء الاصطناعي جمع ملفاتٍ على الإنترنت من منصّات التّواصل الاجتماعيّ، وتصنيفها استناداً إلى اهتماماتهم، ومنشوراتهم، ومسمّياتهم، الوظيفيّة، وعددِ المتابعين، وما إلى ذلك، ومن ثمّ تجميعها مع الضحايا المحتملين الذين يشتركون في سماتٍ مماثلةٍ. لتصبحَ هذه التّجمعاتُ بعد ذلك أهدافاً لحملاتِ التّصيّدِ الاحتياليّ.
الحماية من هجمات الهندسة الاجتماعية المعتمِدة على الذكاء الاصطناعي
شاهد أيضاً: 6 طرق لحماية الهواتف المحمولة من خطر التصيّد الإلكتروني
للتّقليل من مخاطر الهندسة الاجتماعية المعتمدةِ على الذكاء الاصطناعي، يُنصحُ بشدّةٍ أن تعتمدَ المؤسساتُ على ما يلي من أفضل ممارساتِ الأمانِ:
- دمج محاكاة في برامج التّدريب: الدّروس في الفصول الصّفيّةِ والعروض عبر الإنترنتِ وحدها غير كافيةٍ لتدريبِ موظّفي الأمن، إذ يجبُ على المؤسساتِ دمج تدريب المحاكاةِ (باستخدامِ محتوى تمَّ إنشاؤه بواسطةِ الذكاء الاصطناعيّ إذا كان ذلك ممكناً، حتّى يتعوّدَ الموظفون على أساليب التّواصل التي تمَّ إنشاؤها بواسطةِ الذكاءِ الاصطناعيّ.
- تسليط الضّوءِ للموظفين على التّهديدات الأمنيّة المستندة إلى الذكاء الاصطناعي: في برامج التّدريب الأمنيّ، وجلسات التّوعية، وسياسات الأمان والتّوثيق، ينبغي أن يكونَ لدى المؤسساتِ قسمٌ مخصّصٌ للمخاطرِ التي يشكلها الذكاء الاصطناعيّ، مركّزةً على كيفيّةِ سوءِ استخدامِ أدواتٍ مثل ChatGPT لصياغةِ رسائل مستهدفةٍ بشكلٍ كبيرٍ، والتّسبّب في تعرّض الأفراد، والمؤسسات، لمخاطرَ فيما يتعلّقُ بالسّلامة والأمان والخصوصيّة.
- استخدام أدوات الأمان المعتمدة على الذكاء الاصطناعيّ: استخدم أدوات الأمان السّيبراني التي تستفيدُ من التعلّم الآلي ومعالجة اللغة الطبيعية، لاكتشاف الاتصالات الخبيثة والرّسائلِ الإلكترونيّةِ التي تمّت صياغتها باستخدامِ الذكاء الاصطناعي التوليديّ، وضع علامة تنبيهٍ على تلك الاتصالاتِ من أجل مراجعةٍ مفصّلةٍ يقوم بها الفريق الأمنيّ.
- اعتماد مبدأ انعدام الثقة التام (Zero Trust): انعدام الثقة التام هو هندسةٌ أمنيّةٌ تركّزُ على فكرةِ أنَّ المؤسسات يجبُ ألّا تثقَ مطلقاً في أيّ شيءٍ داخل أو خارج نطاقها، ويجبُ دائماً التحقّقُ من هوية المستخدمين، والأجهزة، والتّطبيقات التي تحاولُ الوصول إلى الأنظمة قبل منح الوصول. وعلى الرغمِ من أنّ مبدأ انعدام الثقة التام ليس خالياً من العيوب بالنسبة لجميع عمليات الاحتيال التي تستخدمُ فيها هندسة اجتماعية، إلّا أنّهُ مصمّمٌ لتقييدِ حركة المهاجمين الجانبية، ممّا يقلّلُ بدوره من التّأثير النّاتج عنها على المؤسّسةِ.
مع تطوّر وتحسين أنظمة التّحكم والدّفاع السيبرانيّة، من المرجّح بشدّةٍ أن يتزايدَ تفضيل الخصوم لأساليب الهندسة الاجتماعية لتجاوز أنظمة الأمان. ومع توفّر تكنولوجيا الذكاء الاصطناعي بسهولةٍ، هي مسألةُ وقتٍ فقط قبل أن تصبحَ الهجمات المبنية على الذكاء الاصطناعي أمراً شائعاً للغاية. ويجبُ على المؤسّساتِ أن تدركَ هذا التّهديد، وتنفّذ تدابير دفاعيّةً مبنيةً على الذكاء الاصطناعي، وتشجّعَ على ثقافة الأمان، وتوفّر تمارين تدريبيّةٍ، يُمكن أن تساعدَ الموظّفين في اكتشاف المناورات الخادعة التي تستخدمها الجهات الخطرة، ممّا يساعد في حماية العمل من الأضرار الماديّة المحتملة.