الرئيسية الذكاء الاصطناعي اختراقاتٌ تهدّد نموذج الذكاء الاصطناعي في Microsoft

اختراقاتٌ تهدّد نموذج الذكاء الاصطناعي في Microsoft

تواجه مايكروسوفت مخاوف جديدة بشأن الأمن السيبراني مع استهداف القراصنة لنموذج الذكاء الاصطناعي الخاص بها

بواسطة فريق عربية.Inc
images header

مع ظهور كلّ تقنيّةٍ جديدةٍ، تبرز تحدّياتٌ أمنيّةٌ مبتكرةٌ تواجه الشّركات المطوّرة، وغالباً ما تتحوّل هذه المرحلة إلى لعبة "ضرب الخلد" بين القراصنة والشّركات، ويتكرّر هذا السّيناريو مع الذكاء الاصطناعي، أحد أحدث الابتكارات التّكنولوجيّة، وفقاً لما تظهره الأحداث الأخيرة المرتبطة "بمايكروسوفت" (Microsoft).

كشفت مايكروسوفت عن دعوى قضائيّةٍ رفعتها ضدّ مجموعةٍ من المبرمجين المتخصّصين الّذين طوّروا أدواتٍ لاستهداف حواجز الحماية في منتجاتها المستندة إلى السّحابة، إذ وصفت الشّركة هذه الأدوات بأنّها تهدف إلى إنتاج "محتوى مسيءٍ وضارٍّ وغير قانونيٍّ"، ممّا يسلّط الضّوء على جانبٍ جديدٍ من تهديدات الأمن السيبراني الّتي تواجهها أنظمة الذكاء الاصطناعي.

تفاصيل القضيّة

قدّمت مايكروسوفت ملفّها القانونيّ في ديسمبر 2024، ولكنّ تفاصيل القضيّة ظهرت مؤخّراً عبر موقع "تك كرنش" (TechCrunch). في الشّكوى، اتّهمت الشّركة عشرة أشخاصٍ مجهولين بانتهاك قوانين الاحتيال وإساءة استخدام الكمبيوتر، إلى جانب قوانين حقوق الطّبع والنّشر وقوانين مكافحة الابتزاز.

ويزعم أنّ هذه المجموعة تمكّنت من سرقة بيانات اعتماد تسجيل الدّخول السّحابيّ "لمايكروسوفت أزور" (Microsoft Azure)، والّتي استخدمتها لإطلاق برنامجٍ خاصٍّ يمكنه التّحايل على آليّات الحماية المدمجة في خدمات مايكروسوفت السّحابيّة، بما في ذلك نظام "دال إي" (DALL-E) من "أوبن إيه آي" (OpenAI) لتوليد الصّور. إذ أتاح البرنامج إمكانيّة إنتاج صورٍ ضارّةٍ من خلال تجاوز القيود المصمّمة لحظر الطّلبات المشبوهة، ولم تحدّد الدّعوى المحتوى الّذي تمّ إنشاؤه، ولكنّ أكّدت مايكروسوفت أنّ الهدف كان إنتاج مواد غير قانونيّةٍ أو مسيئةٍ.

ومن جهةٍ أخرى، مايكروسوفت ليست وحدها الّتي تواجه هذه التّحدّيات. ففي الصّيف الماضي، تعرّضت "غوغل" (Google) لموقفٍ مشابهٍ حين سمح خطأٌ في نظامها "جيميني" (Gemini) للذكاء الاصطناعي بإنتاج صورٍ غير ملائمةٍ عنصريّاً وثقافيّاً، إذ أجبر هذا الحادث غوغل على التّراجع عن النّظام وتقديم اعتذارٍ رسميٍّ عبر نائب الرّئيس التّنفيذيّ للمعرفة والمعلومات، برابهاكر راغافان، الّذي أقرّ بفشل النّظام في تحقيق الأهداف المرجوّة.

وفي منشورٍ على مدوّنتها، أوضحت مايكروسوفت أنّها حصلت على إذنٍ قضائيٍّ للاستيلاء على موقعٍ إلكترونيٍّ كان يُستخدم كجزءٍ من هذا الهجوم، كما طبّقت تدابير جديدةً على منصّة "أزور" لمنع مثل هذه الأنشطة مستقبلاً.

الذكاء الاصطناعي: سلاحٌ ذو حدّين

تتميّز أنظمة الذّكاء الاصطناعيّ بقدرتها على إنشاء محتوىً متنوّعٍ، من نصوصٍ وصورٍ إلى مقاطع فيديو. لكنّ هذه الميزة نفسها تجعلها عرضةً لإنتاج محتوى ضارٍّ، مثل الموادّ الإباحيّة أو الصّور السّياسيّة المزيّفة. على سبيل المثال، أثار إيلون ماسك، مالك منصّة "إكس" (X)، جدلاً واسعاً العام الماضي بعد مشاركته صورةً زائفةً أنشأها الذكاء الاصطناعي، تظهر فيها نائبة الرّئيس كامالا هاريس بملابس النّازيّينروّج ماسك بدوره لنظام الذكاء الاصطناعي الخاصّ به، "جروك" (Groq)، الّذي يتميّز بوجود "قيودٍ أقلّ"، ممّا أثار جدلاً واسعاً حول توازن حرّيّة التّعبير والأمان.

التّهديد للشّركات الصّغيرة

رغم أنّ مايكروسوفت تمكّنت من التّعامل مع هذا الهجوم بفضل مواردها الهائلة، إلّا أنّ الشّركات الصّغيرة الّتي تقدّم خدمات الذكاء الاصطناعي  قد تواجه تحدّياتٍ كبيرةً إذا تعرّضت لاختراقاتٍ مشابهةٍ. ومع ذلك، فإنّ استخدام الذكاء الاصطناعي لتعزيز الأمن السّيبرانيّ قد يمنح هذه الشّركات أدواتٍ لحماية نفسها، حتّى في ظلّ نقص الموارد والخبرات.

في النّهاية، يمثّل هذا الحادث جرس إنذارٍ للصّناعة بأكملها لتطوير إستراتيجيّاتٍ أمنيّةٍ أكثر قوّةً في مواجهة التّهديدات المتزايدة الّتي يفرضها تطوّر الذكاء الاصطناعي.

تابعونا على قناتنا على واتس آب لآخر أخبار الستارت أب والأعمال
آخر تحديث:
تاريخ النشر: