هل تخشى على نظام .A.I لديك من المخاطر؟ إليك 6 خطوات لتخفيفها
كي تضمن أن عملك محميّ، إليك إطار أمانٍ للذكاء الاصطناعي تنصحك غوغل باتباعه
بقلم بن شيري Ben Sherry، مراسل
يمتلك الذّكاء الاصطناعي التّوليدي الإمكانيّة ليُغيّر جذرياً من الشّركات ذات الأشكال والأحجام المختلفة، ولكنّ الخطرَ النّاجم عن تنفيذ هذه التّكنولوجيا في عملكَ، يُمكن أن يكون عظيماً. نعم، يجب عليك التأكّد من أنّ نظام الذّكاء الاصطناعي لديك موثوقٌ به، ولكن عليك أيضاً حمايته من الاختراقات والانتهاكات المُحتملة. هنا المشكلة: تكنولوجيا الذّكاء الاصطناعي لا تزال صغيرةً بحيث لا توجد معايير معتمَدة على نطاقٍ واسعٍ بعدْ لبناء هذه الأنظمة المعقّدة ونشرها وصيانتها. [1]
في محاولةٍ لتعميم مجموعةٍ موحّدةٍ من المعايير للذّكاء الاصطناعي المحميّ، أصدرت Google إطاراً تصوريّاً يُعرف بـ SAIF، أو الإطار المحمي للذكاء الاصطناعي. قال رويال هانسن Royal Hansen ، نائب رئيس هندسة الخصوصية والسّلامة والحماية في Google، ومدير أمن المعلومات الرّئيسي للسحابة في Google، فيل فينابلز Phil Venables، في منشورٍ لهما، إنّه يجب أن يتمّ اعتماد مثل هذا الإطار من قبل القطّاعين العام والخاصّ للحدّ من المخاطر، مثل: استخراج المعلومات السّرية، وتسميم القراصنة للنّظام عن طريق إضافةِ معلوماتٍ معطوبةٍ إلى بيانات التّدريب، وحتى سرقة النّظام ذاته.
شاهد أيضاً: الذكاء الاصطناعي والإنسان
إليكم ستّة عناصر رئيسيةٍ في إطار الذّكاء الاصطناعي لـ Google، وكيف يمكن أن تُساعدَ في حماية لعبتكَ الجديدة واللّامعة:
إرساء أسس قوية
في البداية، يجب أن تُلقي نظرةً على ما لديكَ. إذا كنت صاحب عملٍ بالفعل، فإنّك على الأرجح تمتلكُ مسبقاً حمايةً قياسيّةً لبنيةٍ للبيانات الرّقمية الأساسيّة لديكَ، ولكن هذه الحماية ستحتاج إلى التّكيّف لمكافحة مخاطر الأمان القائمة على الذّكاء الاصطناعي بفعاليةٍ. وبمجرّد أن تقوم بتقييم كيفيّة تطابق الضّوابط الحالية مع استخدام الذّكاء الاصطناعي في حالتك، ضع خطةً لمعالجة الثّغرات.
على سبيل المثال، تقول Google إنّ حقن الأوامر، وهي نوعٌ من هجمات القرصنة التي يستخدم فيها المهاجم لغةً معيّنةً لاختراق الدّفاعات الخاصّة بنظام الذّكاء الاصطناعي، تعدّ تهديداً متزايد الانتشار. ويمكن تقليل مخاطر هذا النّوع من الهجوم من خلال تطبيق إجراءاتِ تنقية الإدخال، وهو عمليّةٌ يتمّ فيها التحقّق تلقائياً من الأوامر بناءً على معايير معينةٍ. إذا تبيّن أنّ الأمر لم يتوافق مع المعايير المقبولة، فإنّه لا يُسمح له بالاستمرار.
تسريع اكتشاف التهديدات
تقول Google إنّه عندما يتعرّض نظام الذّكاء الاصطناعي لهجومٍ إلكترونيّ، وسيحدث ذلك، لا شيء أهمّ من الاستجابة السّريعة للتهديد، ويمكن القيام بذلك من خلال تحسين تحرٍّ واكتشاف أيّ حادثةٍ من هذا القبيل. أحد المجالات التي يجب التّركيز عليها، وفقاً لعملاق التّكنولوجيا، هي إنشاءُ سياساتِ سلامةِ محتوى قويةٍ. نظراً لأنّ الذّكاء الاصطناعي التّوليدي قادرٌ على إنشاء صورٍ ومقاطعَ صوتٍ وفيديو من الصّفر، فإن إمكانيّة إنشاء محتوى ضارٍّ واضحةٌ. ومن خلال وضع وتنفيذ سياساتِ المحتوى، يُمكنك حماية نظامكَ من الاستخدام المشين، وحماية علامتكَ التّجارية في الوقت نفسه.
شاهد أيضاً: كيف تطلق العنان لإمكانيات عملك بالذكاء الاصطناعي
قم بأتمتة دفاعاتك
لحماية نظامك بشكلٍ أكبر من التّهديدات، مثل: اختراق البيانات، وإنشاء المحتوى الضارّ، والانحياز في الذّكاء الاصطناعي، توصي Google بتنفيذ حلولٍ آليّةٍ مؤتمتةٍ، مثل: تشفير البيانات، والتحكّم في الوصول للمعلومات، والتّدقيق التّلقائي. ويُمكن أن تكونَ هذه الدّفاعات الآليّة قويةً، وغالباً ما تقضي على الحاجة لمحترفين لتولّي المهامّ المستهلِكة للوقت، مثل: الهندسة العكسية للبرمجيّات الضارّة. ومع ذلك، تشير Google إلى استمرار الحاجة إلى وجود عنصرٍ بشريّ في الدّائرة، ليتولّى الحكم على القرارات الهامّة، مثل تحديد ما يشكّل تهديداً وكيفيّة الاستجابة له.
حافظ على استراتيجيةٍ منسجمةٍ
بمجرّد تنفيذ الذّكاء الاصطناعي في نموذج أعمالكَ، ستحتاج إلى إعدادِ عمليةٍ لاستعراض كيفيّة استخدام الأداة بشكلٍ دوريٍّ في مؤسستكَ. إذا وجدت أن أجزاءً من مؤسستك لديها ضوابط أو إطارات مختلفة فيما يتعلّق بالتكنولوجيا، قد ترغب في إجراء تغييرٍ. وفقاً لـ Google، تزيد الضّوابط المجزّأة من التعقيد وتخلق تداخلاً كبيراً بين الفِرَق، ممّا يزيد من التكاليف وعدم الكفاءة.
كن مستعداً للتكيف بشكلٍ دائم
كلّ يومٍ، تحدث تطوراتٌ في مجال الذّكاء الاصطناعي التّوليدي، وهذا يعني أنّ التهديدات تتطوّر باستمرارٍ أيضاً. واحدةٌ من الطّرق لتحسين حمايتك بشكلٍ دائمٍ هي إجراء "تدريب الفريق الأحمر"، وهو أسلوب اختبارٍ يقوم فيه فريقٌ من القراصنة الأخلاقيين بمحاولة استغلال الثّغرات في النّظام. ومن خلال القيام بهذا، يُمكنك سدّها في نظامك قبل أن يجدها فاعلٌ سيئٌ.
شاهد أيضاً: 6 طرق لحماية الهواتف المحمولة من خطر التصيّد الإلكتروني
حدد مدى قدرتك على تحمّل المخاطر
قبل أن تقومَ بتنفيذ أيّ حلٍّ يعتمد على الذّكاء الاصطناعي، سترغب في تحديد شيئين: ما هي حالة استخدامه لديك، وكم من المخاطر أنت مستعدٌّ لتحمّلها. وعندما تكون لديك هذه المعلومات محدّدةً بدقّةٍ، يمكنك استخدامها لتطوير عمليةٍ لتقييم مختلف أنواع النّماذج الخارجية المتاحة للتعلّم الآليّ. ومن خلال هذه العمليّة، يمكنك تحديدُ مدى تطابق كلّ نموذجٍ مع الحالة المعنية لاستخدام الذّكاء الاصطناعي ومستوى المخاطر المرتبط به.