أداة Meta الجديدة: سر تدريب أنظمة الذكاء الاصطناعي
من الوصول العادل إلى سرق الخصوصيّة، اكتشف كيف يتنافس عمالقة التكنولوجيا على الوصول إلى أكبر قدرٍ من البيانات اللّازمة لتطوير أنظمتها الذّكيّة
تعتمدُ شركةُ Meta على روبوتٍ زاحفٍ عبر الإنترنت لجمع أكبر كميّةٍ ممكنةٍ من البيانات، بهدف تدريب أنظمة الذكاء الاصطناعي الخاصّة بها، بينما تتّخذُ العديدُ من المواقع الإلكترونيّة إجراءاتٍ لمنع الشّركات الأُخرى في مجال الذّكاء الاصطناعيّ من جمع البيانات بطريقةٍ مماثلةٍ، ويبدو أنّ هذا الإجراء قد لفت الانتباه إلى قضيّة جمع البيانات باستخدام الذّكاء الاصطناعيّ، ومن الجدير بالذّكر أنّ عدداً قليلاً فقط من الشّركات يمنعُ الرّوبوتات الجديدة التّابعة لشركة Meta من الوصول إلى محتواها.
وقد أطلقت شركةُ ميتا على الزّاحف الجديدِ اسم" Meta External Agent" وفقاً لتقارير Fortune، حيث تحدّث المنفّذ الإخباري إلى "Dark Visitors"وهي شركةٌ تبيع أدواتٍ لأصحاب المواقع لمنع الروبوتات الزّاحفة، في حين أوضحت الشّركةُ من خلال التّقرير أنّ Meta bot الجديد يُشبهُ GTBot والّذي يعتبر أكثر شهرةً منOpen AL .
وبحسب ما وردَ أفادت البياناتُ بأنّ الرّوبوت قد أُطلق في الشّهر الماضي، ورغم اعتراف الشّركةِ بوجوده أمام الصّحافة، إلّا أنّها لم تنشر الزّاحف الجديد بَعد، ومن الجدير بالاهتمام ما أظهرتهُ بياناتُ شركة Dark Visitors بأنّ نحو ربع المواقع الإلكترونيّة الأشهر عالميّاً قد اختارت استخدام الأدوات المتُاحة لمنع GTBot من الوصول إلى بياناتها، بينما لم يتّخذ سوى 2% منها إجراءاتٍ مشابهةً ضدّ روبوت Meta الجديد.
- ولكن لماذا يجبُ عليكَ أو على شركتكَ الاهتمام بهذا الأمر؟
لأنّه عندما يرتفعُ عددُ الرّوبوتات الخاصّة باستخراج البيانات المُستندة إلى الذّكاء الاصطناعيّ، مثل: ChatGPT من OpenAI أو Meta's Llam، ستزدادُ كميّة البيانات اللّازمة لتدريبها، وقد اتُّهمت العديدُ من شركات الذّكاء الاصطناعيّ باستخدام حيلٍ مشكوكٍ بها لجمع البيانات من أيّ مكانٍ، وفي بعض الحالاتِ وصل الأمرُ إلى اتّهاماتٍ بانتهاك حقوق الطّبع والنّشر، وتجنّباً لحدوث ذلك حظرت مواقعٌ عديدةٌ، مثل Reddit، الوصولَ إلى أرشيف المحتوى الخاصّ بها ما لم يُوقّع محرّكُ البحث وشركات الذّكاء الاصطناعيّ على اتفاقيّة ترخيصٍ، على غرار تلك الّتي أعلنت عنها للتوّ OpenAI وCondé Nast.
على سبيل المثال، ما حدث الشّهر الماضي حين اتُّهمت شركةُ Anthropic التي أنشأت نظام Claude AI، بضرب مواقع الويب الشّهيرة، مثل:iFixit Freelancer.com و ، وبعد محاولاتٍ مُتكرّرةٍ لروبوتات الذّكاء الاصطناعيّ للوصول إليها أثّرت عواصف الطّلبات هذه على وظائف مواقع الويب، حتّى أنّ Anthropic اتُهمت بتجاهل عناصر التّحكم الّتي يجبُ أن تمنعَ برامج الزحف تلقائيّاً من الوصول إلى أيّ محتوى، وقد تحدّثَ رئيس الذكاء الاصطناعي في مايكروسوفت مؤخّراً عن هذه المشكلة، وأشار أنّ أيّ بياناتٍ يُمكن لهذه الأنظمة الحصول عليها تعتبرُ "لعبةً عادلةً"، وأشار ضمناً إلى أنّ حظرَ برامج زحف الذكاء الاصطناعي من الوصول يعتبرُ منطقةً رماديّةً قانونيّاً.
في الحقيقة إنّ الآثارَ المترتّبة على أيّ شركةٍ تُشاركُ بعضاً من ملكيّتها الفكريّة على موقعها الإلكترونيّ، تستوجب أن يمتلكَ فريق تكنولوجيا المعلومات الخاصّ بها قدرةً كبيرةً على مواكبة السّرب القادم من الرّوبوتات الزّاحفة، وذلك لحماية المواد الخاصّة من الظّهور في برنامج الدّردشة الآليّة؛ لذا يتعيّنُ عليها اتّخاذ الإجراءات اللّازمة، وهذه الإجراءاتُ ليست مشكلةً صعبةً، إذ يجبُ إعدادها مرّةً واحدةً فقط مثل العديد من مشكلات الأمن السيبراني.
في الواقع إنّ الذّكاء الاصطناعيّ ليس الوحيدَ الذي يسعى للوصول لبياناتكَ، إذ هناك دليلٌ آخرٌ على أنّ شركات التّكنولوجيا الكُبرى عازمةٌ على جمع بياناتكَ أينما استطاعت، فقد قضت محكمةُ الاستئنافِ الأمريكيّة بأنّ شركةَ غوغل يجب أن تواجهَ دعوى قضائيّةً من مستخدمي نظام متصفّح كروم الخاصّ بها، وتم اتّهام Google باستخدام Chrome لجمع معلوماتٍ شخصيّةٍ عن المستخدمين دون إذنٍ، حتّى بعد أن اختارَ المستخدمون عدم مزامنة متصفّحاتهم مع حسابات Google من أجل إبقاء بياناتهم بعيداً عن أيدي Google، وحسب بعض التّقديرات فإنّ متصفّحَ كروم يُسيطرُ تقريباً على ثلثي سوق المتصفّحات العالميّة، وهذا يعني أنّ كروم كان يجمع أيضاً بياناتٍ عن ملايين الشّركات الصّغيرة والكبيرة المعتمدة على أنظمته، لتنفيذ العمليّات التّجاريّة اليوميّة.
في النّهاية نلاحظُ أنّ شركةَ غوغل قد أصدرت بياناً تُعارضُ فيه الحكم الموجّه لها، وفقاً لوكالة الأنباء رويترز، لكنّ هذا بمثابة تحذيرٍ لكَ وعليكَ أنّ تدقّ جرس الإنذار إذا مرّ وقتٌ طويلٌ منذ أنّ درّبت موظّفيك على حمايةِ أكبر قدرٍ ممكنٍ من بيانات الشّركة أثناء عملهم عبر الإنترنت.