رئيس الذكاء الاصطناعي في مايكروسوفت: محتواك متاح للاستخدام
مصطفى سليمان يحذّر من أنّ ما ننشره على الإنترنت يمكن استخدامه لتدريب نماذج الذكاء الاصطناعي، حتى المحتوى غير المحمي بجدران الدّفع أو تسجيل الدخول
في عصرٍ يزدادُ فيه نهمُ الذكاءِ الاصطناعيِّ للبياناتِ، ينبغي على الجميعِ إعادةُ النظرِ فيما ينشرونه عبر الإنترنت، إذ من المحتملِ أن يتمَّ استخدامُه لتدريبِ الذكاءِ الاصطناعيِّ.
كان التحذيرُ في الماضي يتمثّلُ في أنَّ أيَّ شيءٍ تضعه على الإنترنتِ سيظلُّ هناكَ إلى الأبد. أمَّا الآن، مع ظهورِ نماذجِ الذكاءِ الاصطناعيِّ، فإنَّ التحذيرَ الجديدَ هو أنَّ أيَّ شيءٍ تنشره على الإنترنتِ سينتهي به المطافُ في نظامِ ذكاءٍ اصطناعيٍّ، سواءٌ أردتَ ذلكَ أم لا. هذا على الأقلِّ ما يراهُ مصطفى سليمان، المؤسسُ المشاركُ لوحدةِ الذكاءِ الاصطناعيِّ DeepMind التابعةِ لغوغل والرئيسُ التنفيذيُّ للذكاءِ الاصطناعيِّ في مايكروسوفت.
بحسبِ سليمان، من المقبولِ أنْ تقومَ شركاتُ الذكاءِ الاصطناعيِّ بتصفحِ كلِّ زاويةٍ من زوايا الويبِ المفتوحِ – وهو ما يُعتبرُ أيُّ موقعٍ غيرَ محميٍّ بجدارِ دفعٍ أو واجهةِ تسجيلِ دخولٍ – واستخدامِ ما يجدونه لتدريبِ خوارزمياتهم. في عصرِ النموِّ السريعِ لخدماتِ الذكاءِ الاصطناعيِّ التوليديةِ المتعطشةِ للبيانات، يُعتبرُ ذلكَ تذكيراً صارخاً بعدمِ نشرِ أيِّ شيءٍ على موقعكَ الإلكترونيِّ، أو على وسائلِ التواصلِ الاجتماعيِّ إذا كنتَ لا تريدُ أنْ يكونَ متاحاً للجميعِ.
استخدامٌ عادل أم استغلال؟
في حديثِه مع قناة CNBC خلال مهرجانِ أفكارِ أسبن، أشارَ سليمان إلى الفكرةِ المقبولةِ عموماً بأنَّ أيَّ محتوى موجودٍ على "الويبِ المفتوحِ" يُعتبرُ متاحاً للاستخدامِ من قبلِ الآخرينَ بموجبِ مبادئِ الاستخدامِ العادل. هذه المبادئُ تتيحُ الاقتباسَ أو المراجعةَ أو إعادةَ صياغةِ أجزاءٍ صغيرةٍ من المحتوى المنشورِ من قبلِ الآخرين. بشكلٍ خاصٍّ، قال سليمان إنَّ المحتوى المتاحَ للاستخدامِ العادل يمكنُ "نسخه، إعادةَ إنشائه، وإنتاجه".
لاحظْ استخدامَه لكلمةِ "نسخ" بدلاً من "الاستشهادِ" أو "إعادةِ المزجِ". سليمان يلمحُ إلى أنَّه إذا نشرَ شخصٌ ما نصاً أو صورةً أو أيَّ مادةٍ أخرى على موقعِ ويبٍ، فمن المقبولِ للشركاتِ مثلِ شركتِه الوصولُ إليها بالكاملِ. هذا الأمرُ يُثيرُ بعضَ التساؤلاتِ: فالاستخدامُ العادلُ لم يُصممْ لتمكينِ النسخِ الكامل، وإحدى المحظوراتِ الكبرى هي نسخُ عملِ شخصٍ آخرَ لتحقيقِ مكاسبَ ماليةٍ.
لكنَّ كلماتِ سليمان التاليةَ قدْ تُثيرُ قلقَ النقادِ الذين يعتقدونَ أنَّ قدراتِ الذكاءِ الاصطناعيِّ الكبيرةَ قدْ أصبحتْ بالفعلِ شديدةَ السطوةِ. أقرَّ سليمان بأنَّ الناشرَ أو المؤسسةَ الإخباريةَ يمكنها وضعُ علاماتٍ واضحةٍ على محتواها لمنعِ أنظمةٍ مثلِ روبوتاتِ فهرسةِ الويبِ التابعةِ لجوجلَ من الوصولِ إلى المعلوماتِ. كما أشارَ إلى أنَّ البعضَ يضعُ علاماتٍ على المحتوى للسماحِ بالوصولِ فقطْ لمحركاتِ البحثِ، وليسَ "لأيِّ سببٍ آخرَ"، مثلَ تدريبِ بياناتِ الذكاءِ الاصطناعيِّ.
أوضحَ سليمان أنَّ هذه منطقةٌ رماديةٌ، ويعتقدُ أنها "ستجدُ طريقها إلى المحاكمِ". قدْ يكونُ سليمانُ يلمحُ إلى أنَّه يعتقدُ أنَّه لا ينبغي أنْ تكونَ المواقعُ قادرةً على منعِ محتواها من أنْ يكونَ مرئياً للذكاءِ الاصطناعيِّ. يأتي هذا في وقتٍ حساسٍ، حيثُ أنَّ شركةَ الذكاءِ الاصطناعيِّ Perplexity أصبحتْ تحتَ الأضواءِ لتجاهلِها بشكلٍ مزعومٍ هذا النوعَ من علاماتِ المحتوى عبر الإنترنتِ، ثم قامتْ بجمعِ بياناتِ المواقعِ دونَ إذنٍ.
بيانات، بيانات في كل مكان
المشكلةُ الكبيرةُ هي أنَّ الذكاءِ الاصطناعيِّ التوليديِّ يحتاجُ إلى كمياتٍ ضخمةٍ من البياناتِ للعملِ؛ بدونِ البياناتِ، يُصبحُ الذكاءُ الاصطناعيُّ مجردَ صندوقٍ كبيرٍ من الرياضياتِ المعقدةِ. مع البياناتِ، يمكنُ تشكيلُ خوارزمياتِ الذكاءِ الاصطناعيِّ لتجيبَ بمعلوماتٍ واقعيةٍ عندَ كتابةِ استفسارٍ. في سبيلِ الحصولِ على هذه البياناتِ، تعقدُ بعضُ الشركاتِ مثلَ Apple شراكاتٍ معَ خدماتِ نشرِ المحتوى مثلَ Reddit للحصولِ على ملياراتِ النصوصِ والصورِ وغيرها من المستخدمينَ التي تمَّ تحميلها على مرِّ السنينَ. لكنَّ الشركاتِ الأخرى تُتهمُ بجمعِ البياناتِ بشكلٍ غيرِ قانونيٍّ أو مشكوكٍ فيه. وقد رفعتْ صحيفةُ نيويورك تايمز وصحفٌ أخرى دعاوى قضائيةً بناءً على هذا الأمرِ، كما رفعتْ ثلاثُ شركاتِ تسجيلٍ كبرى دعاوى قضائيةً ضدَّ شركاتِ الذكاءِ الاصطناعيِّ التي يُزعمُ أنها نسختْ أرشيفاتِها الموسيقيةَ بشكلٍ غيرِ قانونيٍّ.
الحذر في النشر والاستخدام
معَ زيادةِ عددِ الشركاتِ التي تعتمدُ على تكنولوجيا الذكاءِ الاصطناعيِّ، يعتبرُ هذا تذكيراً آخرَ بضرورةِ توخي الحذرِ عندَ استخدامِ الإجاباتِ التي تنتجها الروبوتاتُ الذكيةُ: يجبُ التحققُ من أنها لا تنتهكُ حقوقَ الملكيةِ الفكريةِ لشركةٍ أخرى قبلَ استخدامها. كما يعدُّ هذا تحذيراً صارخاً بضرورةِ الحرصِ على أنَّ المحتوى المنشورَ عبرَ الإنترنت لا يكشفُ عن بياناتٍ سريةٍ أو خاصةٍ، لأنها قدْ تُستخدمُ في تدريبِ نموذجِ ذكاءٍ اصطناعيٍّ ذكيٍّ بدون إذنكَ.