LinkedIn تجمع بيانات المستخدمين سراً لتدريب الذكاء الاصطناعي
تواجه لينكدإن اتهاماتٍ باستخدام بيانات مستخدميها لتدريب الأنظمة الذّكيّة، ممّا يثير مخاوف بشأن الخصوصيّة والثّقة في المنصّة
شهد العالم في السّنوات الأخيرة تطوّراً هائلاً في مجال الذكاء الاصطناعي، حيث باتت هذه التّقنية تلعب دوراً كبيراً في حياتنا اليوميَّة. ومع هذا التّقدُّم، ظهرت تساؤلاتٌ عديدةٌ حول أخلاقيّات جمع البيانات واستخدامها في تدريب أنظمة الذكاء الاصطناعيّ. وإحدى الشّركات الّتي أثارت جدلاً في هذا الّسياق هي "لينكدإن" (LinkedIn)، منصّة التّواصل الاجتماعيّ الّتي تُركّز على العمل والوظائف. في الآونة الأخيرة، وُجِّهت اتهاماتٌ للمنصّة بجمع بيانات المستخدمين سرّاً لتدريب أنظمة الذكاء الاصطناعيّ الخاصّة بها، ممّا أثار مخاوف بشأن الخصوصيَّة والثّقة.
تسعى لينكدإن، المملوكة لشركة "مايكروسوفت" (Microsoft)، إلى تحسين خدماتها والبقاء في المنافسة مع منصّات التّواصل الاجتماعيّ الأكثر شعبيَّةً مثل "إنستقرام" (Instagram) و"تيك توك" (TikTok). ولتحقيق ذلك، لجأت إلى استخدام الذكاء الاصطناعيّ كمحركٍ رئيسيٍّ لتعزيز تجربة المستخدم، خاصةً فيما يتعلّق بمساعدة الأفراد على تحسين سيرِهم الذّاتيّة وتقديم نصائح مهنيّةٍ. ومع ذلك، بدأت لينكدإن في جمع بيانات المستخدمين لتدريب أنظمة الذكاء الاصطناعيّ التّوليديَّة الخاصّة بها، وهو ما أثار قلقاً كبيراً بين الخبراء والمستخدمين على حدٍّ سواء.
إحدى النّقاط المُثيرة للجدل هي أنَّ لينكدإن لم تُخبر المستخدمين بشكلٍ صريحٍ عن هذه الممارسة، كما أنَّها لم تُقدِّم خياراً افتراضيّاً لرفض مشاركة البيانات، بل كان يتعيَّن على المستخدمين البحث بأنفسِهم عن كيفيّة إلغاء الاشتراك في هذه الخدمة. ورغم أنَّ الشّركة أكّدت أنَّها تستخدم تقنياتٍ لتعزيز الخصوصيَّة من خلال حذف أو تعديل البيانات الشخصيّة في مجموعات التّدريب، إلّا أنَّ الشّكوك حول مدى كفاءة هذه الإجراءات تبقى قائمةً.
القوانين والخصوصيَّة
أشارت تقاريرٌ عديدةٌ، بما في ذلك تلك المنشورة على موقع "404 ميديا" (404 Media)، إلى أنَّ لينكدإن حدّثت شروط وأحكام الاستخدام، ما كشف عن خططِها لاستخدام البيانات في تدريب نماذج الذكاء الاصطناعي، واللّافت في الأمر أنَّ هذه الممارسة لا تشمل كلَّ المستخدمين، حيث أنَّ المقيمين في دول الاتّحاد الأوروبيّ وسويسرا تمَّ إعفاؤهم من هذا الإجراء. ومن المرجَّح أن يكونَ هذا الامتناع مرتبطاً بقوانين الخصوصيَّة الصّارمة الّتي تفرضُها تلك المناطق، وخاصّةً قانون الذكاء الاصطناعي الجديد في الاتّحاد الأوروبيّ.
ردّ فعل لينكدإن LinkedIn
حاولت لينكدإن الدّفاع عن نفسها، حيث أكّدت أنَّها تُوفِّر لمستخدميها المزيد من الخيارات للتّحكّم في كيفيّة استخدام بياناتِهم، كما وأوضحت أنَّ هذه البيانات تُستخدم بشكلٍ رئيسيٍّ لتحسين تقنية الذكاء الاصطناعي التوليدية الّتي تعتمد عليها المنصّة لمساعدة المحترفين في العثور على وظائف وبناء شبكاتٍ مهنيّةٍ. ولكن، لم تكن هذه التّصريحات كافيةً لتهدئة المخاوف، خاصّةً بعد أن كشفَ الموقع عن أنَّ بعض نماذج الذكاء الاصطناعيّ المستخدمة تمَّ تطويرُها بواسطة شركاتٍ خارجيةٍ مثل "آزور أوبن آي" (Azure OpenAI) التّابعة لمايكروسوفت، ممّا يفتح المجال أمام احتماليّة مشاركة البيانات مع أطرافٍ ثالثةٍ.
المخاوف والمخاطر
تتعلّق أهمُّ المخاوف التي أُثيرت بخصوصيّة المستخدمين وثقتِهم في لينكدإن، فمن الواضح أنَّ المنّصة تحتفظ بالفعل بكمٍّ هائلٍ من البيانات الشّخصيّة لمستخدميها الّذين يتجاوز عددُهم 800 مليون شخصٍ، بما في ذلك معلوماتٌ حسّاسةٌ عن الشّركات والموظّفين، ممّا يزيد المخاوف حول كيفيّة تعامل لينكدإن مع هذه البيانات وما إذا كانت ستتمُّ مشاركتُها مع جهاتٍ أُخرى.
كما أنَّ أنظمة الذكاء الاصطناعي التوليدية معروفةٌ بقدرتها على "تسريب" المعلومات، وهو ما يطرح تساؤلاتٍ حول مدى قدرة لينكدإن على حماية بيانات مستخدميها، فإذا حدث خطأٌ في معالجة البيانات، قد يجد المستخدمون أنفسَهم أمام موقفٍ محرجٍ يتمثّل في تسريب معلوماتِهم الخاصّة أو بيانات شركاتِهم عبر المنصّة.
التّحديات المستقبليّة
من الواضح أنَّ التكنولوجيا الحديثة، مثل الذكاء الاصطناعي، تُقدِّم فوائد كبيرةً في تحسين تجربة المستخدم، لكنّها في الوقت ذاته تطرح تحدّياتٍ كبيرةً على صعيد الخصوصيَّة والأمان؛ لذلك من المهمّ أن تكونَ الشّركات أكثر شفافيّةً فيما يتعلّق بكيفيّة استخدام بيانات المستخدمين، خاصّةً عندما يتعلّق الأمر بتدريب أنظمة الذكاء الاصطناعي.
تُظهر قضيّة لينكدإن أهميّة وجود قوانين صارمةٍ لحماية بيانات المستخدمين وضمان عدم استغلالها لأغراضٍ غير أخلاقيّةٍ أو قانونيّةٍ، فبينما تستمرُّ الشّركات في الابتكار والتّقدّم في مجال الذكاء الاصطناعي، يبقى التّحديُّ الأكبر في كيفيّة تحقيق التّوازن بين الاستفادة من هذه التّقنية وحماية حقوق الأفراد.