الذكاء الاصطناعي في المجال الأمني.. استخداماته ومستقبله
عوضاً عن الخوف من أن يؤدي الذكاء الاصطناعي إلى انقراض الجنس البشري، يدور الحديث عن دوره في حمايتنا من بعضنا البعض
في الحديث عن الذَّكاء الاصطناعيِّ في المجال الأمنيِّ ومعرفة ما هي استخداماته ومستقبله، تتعمَّق فكرتنا عن مدى أهميَّته في حمايتنا نحن البشر، وعوضاً عن الخوف من سيطرة الآلات على كوكب الأرض وتحويلنا إلى عبيدٍ لها أو ضحايا محتملين لطموحها الاستعماريِّ المفترض، يبرز حديثاً مختلفاً عن دورها في حمايتنا من بعضنا بعضاً، فماذا عن الذَّكاء الاصطناعيِّ في المجال الأمنيِّ وما هي استخداماته ومستقبله؟
الذكاء الاصطناعي وتطبيقاته في المجال الأمني
على الرَّغم من أنَّ الذكاء الاصطناَّئ وتطبيقاته في المجال الأمني، ما يزال في بداياته نوعاً ما، لكن يمكن القول إنَّه اليوم مكملٌ رائعٌ للبشر في المجالات الأمنيَّة، ويقدِّم مساعدةً كبيرةً للأشخاص العاملين في المجال الأمنيِّ، ما يمكنهم من تركيز مهامهم على أمورٍ أخرى لا يستطيع الذَّكاء الاصطناعيُّ مساعدتهم بها بعد.
على سبيل المثال، يقدِّم الذَّكاء الاصطناعيُّ مساعدةً كبيرةً في المجالات التَّالية: [1]
- تعزيز أنظمة المراقبة: تستطيع خوارزميَّات الذَّكاء الاصطناعيُّ تحليل كميَّةٍ كبيرةٍ من بيانات كاميرات المراقبة، كذلك أجهزة الاستشعار عن بُعدٍ، بهدف تحديد الأنماط واكتشاف الحالات الشَّاذَّة لتنبيه أفراد الأمن حول التَّهديدات المحتملة، ما يُسهم في تحسين فعاليَّة أنظمة الأمان وتقليل عبء العمل على رجال الأمن.
- التَّحليلات التَّنبُّؤيَّة: نستطيع استخدام الذَّكاء الاصطناعيِّ لتحليل البيانات القادمة من أنظمة الأمان، ثُمَّ تحديد الاتِّجاهات والأنماط الَّتي ربَّما تشير إلى تهديدٍ أمنيٍّ مرتقبٍ، وهذا يساعد أفراد الأمن باتِّخاذ تدابيرٍ استباقيَّةٍ للاستجابة لتلك التَّهديدات، سواءً بمنعها أو تقليل آثارها الكارثيَّة قبل حدوثها.
- تعزيز الأمن الماديِّ: ينجح الذَّكاء الاصطناعيُّ في تحسين تدابير الأمن الماديِّ، مثل أنظمة التَّحكُّم في الوصول، كذلك أنظمة المصادقة البيومتريَّة، وأنظمة الأمن المحيطيِّ، كمثالٍ على ذلك، نستطيع استخدام خوارزميَّات الذَّكاء الاصطناعيِّ لتحليل أنماط الحركة داخل المبنى، بهدف تحديد المخاطر الأمنيَّة المحتملة.
- تحسين الأمن السِّيبرانيِّ: يستطيع الذَّكاء الاصطناعيُّ تحديد التَّهديدات السِّيبرانيَّة ومواجهتها، مثل البرامج الضَّارَّة وهجمات التَّصيُّد الاحتياليِّ والعديد من أنواع الهجمات السِّيبرانيَّة الأُخرى، حيث إنَّ خوارزميَّات الذَّكاء الاصطناعيِّ قادرةٌ على تحليل حركة مرور الشَّبكة وتحديد الأنماط الَّتي توحي بوجود تهديدٍ قائمٍ بالفعل، ما يمنح أفراد الأمن فرصة الاستجابة بسرعةٍ وفعاليةٍ.
إضافةً إلى المجالات السَّابق ذِكرُها، فإنَّ الذَّكاء الاصطناعيَّ يلعب دوراً كبيراً في منع الجرائم، مثلاً يستخدم قسم شرطة نيويورك CompStat، منذ العام 1995، وهو عبارةٌ عن نهجٍ منظَّمٍ يتضمَّن الفلسفة والإدارة التَّنظيميَّة، إلَّا أنَّه يعتمد على الأدوات البرمجيَّة الأساسيَّة. [2]
وقطعت التَّحليلات التَّنبُّؤيَّة وغيرها من أدوات تحليل الجرائم الَّتي تعتمد على الذَّكاء الاصطناعيِّ، خطواتٌ كبيرةٌ منذ ذلك الوقت، واليوم تستخدم شركة Avata Intelligence ومقرُّها كاليفورنيا، الذَّكاء الاصطناعيُّ للتَّنبُّؤ بالوقت الَّذي قد يضرب فيه الإرهابيُّون هدفاً ما.
شاهد أيضاً: استخدامات الذكاء الاصطناعي في إدارة الموارد البشرية
مع الأهميَّة الكبيرة للذَّكاء الاصطناعيِّ، ربُّما حان الوقت لتعزيز دمجه في المجال الأمنيِّ، حيث يقول خبراء التُّكنولوجيا إنَّ هناك ثلاثةُ أسبابٍ رئيسيَّةٍ تجعل الاستفادة منه أمراً لا مفرَّ منه، وهي: [3]
- الذَّكاء الاصطناعيُّ قادرٌ على تحسين تجارب النَّاس ومنحهم الشُّعور بالحماية وراحة البال.
- أدوات الذَّكاء الاصطناعيِّ تمتلك رؤيةً أوسعَ من البشر، وتستطيع تأمين منطقةً عاليةِ الخطورة بشكلٍ أفضل من الحارس البشريِّ.
- الذَّكاء الاصطناعيُّ يستمرُّ في التَّعلُّم والتَّحسُّن بمرور الوقت.
بالعموم، من المتوقَّع أن يؤدِّي استخدام الذَّكاء الاصطناعيِّ في المجال الأمنيِّ، إلى تعزيز قدرات الأنظمة الأمنيَّة بشكلٍ كبيرٍ، وتحسين القدرة على اكتشاف التَّهديدات الأمنيَّة ومنعها، أو على الأقلِّ تخفيف آثارها وتجنُّب وقوع ضحايا.
مخاطر الذكاء الاصطناعي على الأمن القومي
لا يمكن تجاهل مخاطر الذَّكاء الاصطناعيِّ على الأمن القوميِّ للبلدان، حتَّى في عزِّ الحديث عن فوائده الثَّمينة في المجالات الأمنيَّة، إذ سبق أن وصف تقريرٍ صادرٍ عن مجلس الأمن الدَّوليِّ، الذَّكاء الاصطناعيَّ بأنَّه قد يسبب تهديداً على مستوى انقراض الجنس البشريِّ، وطالب التَّقرير حكومةَ الولايات المتَّحدة الأميركيَّة بالتَّدخُّل السَّريع والحاسم لتجنُّب مخاطر الذَّكاء الاصطناعيِّ على الأمن القوميِّ.
وبحسب التَّقرير الصَّادر عام 2022، فإنَّ لدى الذَّكاء الاصطناعيِّ القدرة على زعزعة استقرار الأمن العالميِّ، بطرقٍ تذكِّرنا بإدخال الأسلحة النُّوويَّة، فإن كان الذَّكاء الاصطناعيُِّ يمتلك هذا القدر من المخاطر على الجنس البشريِّ، ربَّما يجب إعادة النَّظر به جليَّاً والعمل على تخفيف تلك المخاطر أو إلغائها قبل القيام بخطواتٍ تزيد من حضوره في حياتنا. [4]
ويلخِّص Noah Ringler وهو متخصِّصٌ في سياسات الذَّكاء الاصطناعيِّ من وزارة الأمن الوطنيِّ الأميركيَّة، تهديدات الذَّكاء الاصطناعيِّ على الأمن القوميِّ بستَّة بنودٍ رئيسيَّةٍ، هي: [5]
- الهجمات السِّيبرانيَّة: إذ يمكن من خلالها تدريب نماذج ذكاءٍ اصطناعيٍّ لتحديد واستغلال نقاط الضَّعف في البرامج والأنظمة، ما يؤدِّي إلى انتهاكاتٍ كبيرةٍ وخطيرةٍ.
- التَّزييف العميق: القدرة الكبيرة في القيام بعمليَّات تزويرٍ واقعيَّةٍ للصَّوت والصُّورة والفيديو من خلال الذَّكاء الاصطناعيِّ، أو ما يسمَّى بتقنية التَّزييف العميق، لا تهدِّد الأنظمة العالميَّة فحسب، إنَّما تهدد ثقة الجمهور، ومن شأنها التَّسبُّب بإرباكاتٍ خطيرةٍ للغاية.
- الاحتيال والتَّلاعب: يستطيع الذَّكاء الاصطناعيُّ إنشاء بيانات لإدامة عمليَّات الاحتيال الماليِّ، والتَّلاعب بالتَّفاعلات عبر الإنترنت، ما يؤثِّر سلباً على الجماعات والأفراد.
- التَّحيُّز أو الأذى غير المقصود: بيانات الذَّكاء الاصطناعيِّ المدرَّبة على البيانات المتحيزة، غالباً ستؤدِّي إلى نتائجَ تمييزيَّةٍ، ما يعرض العدالة والإنصاف للخطر، ويزيد من تهميش الأقليَّات.
- السُّلوك الزَّائف المنسَّق CIB: يستطيع الأفراد استخدام الذَّكاء الاصطناعيِّ لإنشاء حساباتٍ زائفةٍ عبر الإنترنت والتَّلاعب بها، واستخدامها بهدف نشر المعلومات الخاطئة والشَّائعات، بهدف التَّأثير على الرأي العام من خلال الرُّوبوتات وغيرها من الأساليب الأخرى.
- إنترنت الأشياء IoT: يستطيع الخارجون عن القانون، الاستفادة من الذَّكاء الاصطناعيِّ لتعطيل عمليَّات البنية التَّحتيَّة الحيويَّة، مثل شبكات الطَّاقة وأنظمة النَّقل.
ومن سخرية القدر، أنَّ مواجهة تهديدات الذَّكاء الاصطناعيِّ على الأمن القوميِّ للبلدان، لا يمكن أن تتمَّ إلا باستخدام تقنيَّاته؛ أي أنَّه أفرز تلك التَّهديدات، وهو الوحيد القادر على مواجهتها والتَّصدِّي لها، لا يمكن الجزم بعد بكيفيَّة التَّعامل مع هذا الواقع، لكن يمكن الجزم بمدى الخطورة، تخيّل مثلاً أن يقوم أحدهم من خلال تقنيَّة التَّزييف العميق، ببث خطابٍ مباشرٍ لأحد رؤساء كبرى الدُّول في العالم، يتضمَّن استفزازاً من نوعٍ ما، إنَّ مثل هذا الحدث كفيلٌ بشنِّ حربٍ كبيرةٍ على أقلِّ تقديرٍ خصوصاً وسط تعقيد المشهد السِّياسيِّ العالميِّ اليوم.
شاهد أيضاً: ChatGPT 4 أدوات ذكاء اصطناعي قوية للمسوقين في مجال المحتوى
تحديات الذكاء الاصطناعي في المجال الأمني
البحث عن حلول تحدِّيات الذَّكاء الاصطناعيِّ في المجال الأمنيِّ، لن يكون صعباً جدَّاً بمقدار البحث عن حلول للمخاطر الَّتي قد يتسبَّب بها الذَّكاء الاصطناعيُّ، بالتَّأكيد الأمر لن يكون سهلاً جداً في الحالتين.
وتبرز العديد من التَّحدِّيات الَّتي تمنع تنفيذاً ناجحاً للذَّكاء الاصطناعيِّ في المجال الأمنيِّ، مثل: [6]
عدم الانحياز للعمليَّات الدَّاخليَّة
حرصت معظم الشَّركات من حول العالم، على تحسين بنيتها التَّحتيَّة، خصوصاً مكوناتها الأمنيَّة، عبر الاستثمار في الأدوات والمنصَّات، ومع ذلك فإنَّ تلك الشَّركات ما تزال تواجه عقباتٍ أمنيَّةٍ وتفشل مراتٍ كثيرةً في حماية نفسها ضدَّ الهجمات الخارجيَّة.
غالباً ما يكون السَّبب عدم وجود تحسيناتٍ في العمليَّات الدَّاخليَّة والتَّغيير الثَّقافيِّ الَّذي يمنع رسملة الاستثمارات في مراكز العمليَّات الأمنيَّة، إضافةً إلى ذلك، فإنَّ الافتقار إلى الأتمتة والعمليَّات المجزَّأة يخلق ملعباً أقلَّ قوَّةً للدفِّاع ضدَّ مجرمي الإنترنت.
فصل أنظمة التَّخزين
لا تستفيد غالبيَّة المؤسَّسات والشَّركات من أدوات وسيط البيانات، مثل RabbitQ وKafka، واستخدامها لبدء تحليلات البيانات خارج النِّظام؛ إذ إنَّها لا تفصل بين أنظمة التَّخزين وطبقات الحساب، وهذا يؤدِّي إلى عدم السَّماح بتنفيذ البرامج النَّصيَّة للذَّكاء الاصطناعيِّ بشكلٍ فعَّالٍ.
إضافةً إلى ما سبق، فإنَّ عدم وجود فصلٍ بين أنظمة التَّخزين، يزيد من احتماليَّة تقييد البائعين في حال حدوث تغييرٍ في المنتج أو النَّظام الأساسيِّ.
توقيع البرامج الضَّارَّة
تشبه التَّوقيعات بصمات الأصابع الخاصَّة بالشِّيفرات الضَّارَّة، الَّتي تساعد فرق الأمان في العثور على البرامج الضَّارَّة وإرسال تنبيهٍ، لكن للأسف لا تتطابق التَّوقيعات مع العدد المتزايد من البرامج الضَّارَّة كلَّ عامٍ.
ما يثير القلق هنا، هو أنَّ أيَّ تغييرٍ في البرنامج النَّصِّي للفايروس يجعل التَّوقيع غير صالحٍ، باختصارٍ لن تساعد التَّوقيعات في تصحيح البرامج الضَّارَّة إلَّا إذا تمَّ إنشاء التَّعليمات البرمجيَّة مسبقاً بوساطة فرق الأمان.
التَّعقيد المتزايد لتشفير البيانات
الارتفاع في استخدام استراتيجيَّات تشفير البيانات المتطوِّرة والمتقدِّمة، يجعل من الصَّعب جداً عزل التَّهديد الأساسيِّ، وتعدُّ عمليَّة فحص الحزم العميق DPI ، الطَّريقة الأكثر شيوعاً لمراقبة حركة المرور الخارجيَّة، فهو يساعد على تصفية الحزم الخارجيَّة، ومع ذلك قد لا يكون الأمر آمناً بنسبة 100%.
فالحزم الخارجيَّة تتكوَّن من خاصيَّةٍ رمزيَّةٍ محدَّدةٍ مسبقاً، يمكن للمتسلِّلين تسليحها للتَّسلُّل إلى النَّظام، كذلك فإنَّ الطَّبيعة المعقَّدة لنظام الفحص العميق، تضع ضغطاً على جدار الحماية ما يؤدِّي إلى إبطاء سرعة البنية التَّحتيَّة.
اختيار طريقة الاستخدام المناسبة للذكاء الاصطناعي
هل كنتم تعرفون، أنَّ أكثر من 50% من مشروع تنفيذ الذَّكاء الاصطناعيِّ يفشل في المرَّة الأولى؟ في الحقيقة هذا ما يحدث، وذلك لأنَّ المؤسَّسات تحاول اعتماد الذَّكاء الاصطناعيِّ على مستوى الشَّركة، بينما يهملون في الغالب أهميَّة الخطوات الصَّغيرة، ويضيقون نطاق حالات الاستخدام القائمة على الذَّكاء الاصطناعيِّ.
وبالتَّالي، فإنَّهم يفتقدون منحنيَّات التَّعلُّم الأوليَّة ويفشلون في استيعاب العوائق الحرجة التي غالباً ما تعرض مشاريع الذَّكاء الاصطناعيِّ للخطر.
من الواضح جدَّاً أنَّ السُّهولة الكبيرة الَّتي نشعر بها خلال استخدامنا أحد أدوات الذكاء الاصطناعي، لا تشبه على الإطلاق الصُّعوبة الكبيرة الَّتي يعيشها القائمون على تطويره ومعالجة تحدِّيات استخدامه، إنَّ الأمر أشبه بالبقاء لساعاتٍ طويلةٍ بإعداد وليمةٍ، تنتهي في خمس دقائق.
استشراف مستقبل الذكاء الاصطناعي في العمل الأمني
إنَّ استشراف مستقبل الذَّكاء الاصطناعيِّ في العمل الأمنيِّ وأنظمة المراقبة، لن يكون صعباً جداً فأسُّسه وضعت اليوم، وغالباً فإنَّ المستقبل سيحمل المزيد من التَّطوير لتلك الاستخدامات لتكون فاعلةً بشكلٍ أكبر، كما لا يمكن استبعاد فرضيَّة اكتشاف مجالاتٍ واستخداماتٍ جديدةٍ يمكن للذَّكاء الاصطناعيِّ أن يكون مفيداً فيها أيضاً.
بغضِّ النَّظر عمَّا يمكن ابتكاره مجدَّداً، فإنَّه يجب الانتباه إلى التَّطورات الرَّئيسيَّة التَّالية الَّتي تمهِّد لمزيدٍ من التَّطورات المستقبليَّة: [7]
التَّحليلات التَّنبُّؤيَّة
يمكن للتَّحليلات التَّنبُّؤية تحليل البيانات التَّاريخيَّة، كذلك تحديد الأنماط والاتِّجاهات الَّتي قد تشير إلى مخاطرَ أمنيَّةٍ، وستساعد هذه التِّقنيَّة في التَّعرُّف على التَّهديدات المحتملة مسبقاً واتِّخاذ التَّدابير الوقائيَّة، مثل زيادة الدَّوريات أو تعديل البروتوكولات الأمنيَّة، للتَّخفيف من المخاطر.
أنظمة الأمان المستقلِّة
مع التَّطور المتزايد للذَّكاء الاصطناعيِّ وخوارزميَّات التَّعلُّم الآليِّ، من المتوقَّع أن تصبح أنظمة الأمان أكثر استقلاليَّةً، ما يسمح لها بالعمل بأقلِّ قَدرٍ من التَّدخل البشريِّ.
كما يمكن أن تضمَّ أنظمة الأمن المستقلَّة طائراتٌ بدون طيَّارٍ أو روبوتاتٍ مجهَّزةٍ بأجهزة استشعارٍ وكاميرات، لمراقبة المناطق والاستجابة للتَّهديدات دون الحاجة إلى تدخُّل العنصر البشريِّ، وتستطيع أن تؤدِّي مساعدةٍ كبيرةٍ في تقليل عبء العمل على موظَّفي الأمن وتوفير مراقبةٍ مستمرَّةٍ للمناطق الَّتي قد يصعب على البشر الوصول إليها.
تحسين معالجة البيانات
يمكن لخوارزميَّات الذَّكاء الاصطناعيِّ تحليل كميَّاتٍ هائلةٍ من المعلومات وتحديد التَّهديدات المحتملة، ما يجعل أنظمة الأمان أكثر فعاليَّةَ في اكتشاف الخروقات الأمنيَّة ومنعها.
تحليلاتٌ متعدِّدة الوسائط
في المستقبل غالباً ستنجح أنظمة الأمان المدعومة بالذَّكاء الاصطناعيِّ في تحليل البيانات من مصادرَ متعدِّدةٍ، بما في ذلك تسجيلات الفيديو والتَّسجيلات الصَّوتيَّة وكافَّة بيانات الاستشعار الأُخرى، وهذا ما سيؤدِّي إلى اكتشاف أنماط والسُّلوكيَّات الأكثر تعقيداً، ما يجعل أنظمة الأمان أكثر فعاليَّةً في مواجهة التَّهديدات المحتملة.
التَّعاون بين الإنسان والذكاء الاصطناعي
بينما من المرجَّح بشكلٍ كبيرٍ، أن يلعب الذَّكاء الاصطناعيُّ دوراً متزايد الأهميَّة في مجال الأمن والمراقبة بالفيديو، فإنَّ الإشراف والتَّدخل البشريُّ سيظلان مهمَّان، ويرى خبراءٌ أنَّ مستقبل الذَّكاء الاصطناعيِّ في المجال الأمنيِّ، سيكون قائماً على التَّعاون بين البشر والذَّكاء الاصطناعيِّ.
الأنظمة الذَّكية ستوفِّر الرُّؤى والتَّوصيات في الوقت الفعليِّ، والبشر سيتَّخذون القرارات النِّهائيَّة؛ إذ إنَّ الحاجة للعامل البشريِّ هنا ستظلُّ قائمةً، لتفسير البيانات واتِّخاذ القرارات المعقَّدة بناء على المعلومات الَّتي توفِّرها الأنظمة الذَّكيَّة.
اعتبارات الخصوصيَّة والعامل الأخلاقيِّ
اليوم ما يزال الخوف من انتهاك الخصوصيَّة واحداً من أكثر الأسباب الَّتي تعيق عمل الذَّكاء الاصطناعيِّ في المراقبة، ومن المتوقَّع في المستقبل أن يتمَّ حلُّ هذه المشكلة الشَّائكة، عبر تطوير أنظمةٍ ذكيَّةٍ واستخدامها بطريقةٍ لحماية الخصوصيَّة الفرديَّة والحريَّات المدنيَّة، وضمان عدم إساءة استخدام البيانات الَّتي تجمعها أنظمة الأمان الذَّكيَّة.
باختصار يمكن القول، إنَّ مستقبل الذَّكاء الاصطناعيِّ في المجال الأمنيِّ، لا يتضمَّن نقل المهام من البشر إلى الآلات، بقدر ما سيكون عبارةً عن تعاونٍ كبيرٍ بين الطَّرفين البشريِّ والآليِّ، وظهور أنظمةٍ جديدةٍ تتميَّز بنماذجَ أعمالٍ مبتكرةٍ وأدوارٍ وظيفيَّةٍ.
إنَّ استخدام الذَّكاء الاصطناعيِّ في المجال الأمنيِّ، يحتاج إلى وعي كبيرٍ وإدراكٍ للمخاطر المحتملة، فكما تستطيع الأنظمة الذَّكيَّة بيد الحكومات وعناصر الأمن، لعب دورٌ مهمٌّ في حماية الإنسان واكتشاف الجريمة قبل وقوعها.
للأسف فإنَّ تلك الأنظمة الذَّكيَّة ستكون بمقدار الأهميَّة ذاته في يد المجرمين، لكن بطريقةٍ خطرةٍ للغاية، كيف يمكن حلُّ تلك المعضلة؟ في الحقيقة هذا ما أودُّ معرفته مثلكم، فحتَّى اليوم لا يوجد جوابٌ على هذا السُّؤال.
-
الأسئلة الشائعة
- هل الذكاء الاصطناعي هو نفسه الأمن السيبراني؟ بالتأكيد الذكاء الاصطناعي ليس هو نفسه الأمن السيبراني، وهما مجالان مختلفان كثيراً ما يتم الخلط بينهما، بسبب التداخل في التطبيق، فالأمن السيبراني يعني حماية أجهزة الكومبيوتر والخوادم والهواتف المحمولة والشبكات والبيانات من التطفلات المعادية، أما الذكاء الاصطناعي، فهو محاولة جعل الآلات تعمل مثل البشر. والفرق الرئيسي بين الأمن السيبراني والذكاء الاصطناعي هو أن الأمن السيبراني يهتم بحماية أنظمة الكمبيوتر والشبكات التي تربطها من سرقة البيانات، بينما يهتم الذكاء الاصطناعي باستخدام الآلات الذكية لتنفيذ مهام محددة بناءً على تصورها. على سبيل المثال رفعت صحيفة نيويورك تايمز دعوى قضائية ضد شركتي OpenAI وMicrosoft، وهما من أبرز الأسماء في مجال الذكاء الاصطناعي، متهمة إياهما باستخدام مقالاتها دون إذن لتدريب أنظمة الذكاء الاصطناعي الخاصة بهما.
- ما هو الذكاء الاصطناعي العسكري؟ الذكاء الاصطناعي العسكري يصنف على أنه سلاح قائم بحد ذاته، ومن خلاله تستطيع الدول تطوير أسلحتها وقدراتها العسكرية، واليوم هناك الكثير من المركبات الأرضية المجهزة بالذكاء الاصطناعي، ما يؤهلها للقيام بعمليات مستقلة تشمل كثير من المهام مثل الخدمات اللوجستية والاستطلاع وغيرها. عموماً باتت فكرة الحرب المدعومة بالذكاء الاصطناعي ذات أهمية متزايدة في العالم، وتشمل مجموعة ليست بالقليلة من التقنيات، مثل الأنظمة المستقلة والطائرات بدون طيار، كذلك خوارزميات التعلم الآلي للتحليل التنبؤي.