هلوسات الذكاء الاصطناعي تطال الانتخابات الأمريكية!
روبوتات الدردشة الاصطناعية تُقدّم إجابات غير دقيقة حول إجراءات الانتخابات في الولايات المتحدة الأمريكية
تُعَدُّ روبوتات الدردشة التي تستندُّ إلى الذكاء الاصطناعي، مثل: GPT-4 من OpenAI وGemini من Google غير موثوقةٍ دائماً فيما يخصّ الانتخابات الأمريكيَّة، إذ كشفت دراساتٌ حديثةٌ أنَّ هذه النَّماذج الاصطناعيَّة قد أسهمت بمعلوماتٍ مغلوطةٍ في أكثر من نصف المواقف عند استفسارها حول مجريَّات العمليَّة الانتخابيَّة، وشاركت بياناتٍ تُعدُّ "مضرَّةً" بنسبة 40%، وذلك بحسب تقرير منظّمتي AI Democracy Projects وNews Proof، ومع تنامي اعتماد الأمريكيّين على هذه الرُّوبوتات الحواريَّة الذَّكيَّة، يُطلق المختصَّون تحذيراتٍ بشأن تأثير هذه التِّقنيَّة المحتمل على انتخابات الولايات المتَّحدة الوشيكة.
وقد أفاد بيل غيتس، المسؤول الانتخابيُّ الجمهوريُّ بأريزونا لـ Proof News: "إنَّ النَّاس يستعيضون بهذه النَّماذج عن محرِّكات البحث العاديَّة، والنَّتيجة هي استقاء المغالطات والخرافات، وهذا الأمر يبعث على القلق الشَّديد"، وأضاف: "إن كنت تسعى خلف الحقيقة بشأن الانتخابات، فمن الأجدر بك ألَّا تلجأ إلى روبوت ذكاء اصطناعي، وإنَّما تزوِّر الموقع الإلكترونيَّ الرَّسميَّ للانتخابات المحليَّة". [1]
شاهد أيضاً: معرض CES 2024: ثورة الروبوتات التي تكتب الرسائل بخط اليد
كان غيتس جزءاً من تجمُّعٍ يضمُّ أكثر من 40 مسؤولاً انتخابيَّاً وصحفيّين وأكاديميّين، اجتمعوا لتقييم 5 من أبرز نماذج الذكاء الاصطناعي بخصوص دقَّة معلومات الانتخابات، إذ قد جرى اختبار كل من GPT-4 وGemini وClaude من Anthropic وLlama 2 من Meta وMixtral من Mistral، استناداً إلى إجاباتها عن 26 سؤالاً محتملاً قد يطرحه النَّاخبون.
ومن بينها برز GPT-4 بأدائه المتميّز، إذ كان يقدِّم باستمرارٍ أدنى نسبةٍ من الإجابات غير الدَّقيقة والضَّارة أو المتحيّزة، وفي المقابل، جاء Gemini وMixtral وLlama 2 في أدنى قائمة الموثوقيَّة، إذ زعم الخبراء بأن 65% من إجابات Gemini كانت غير دقيقةٍ، ووُجد أن 62% منها ضارَّة، أي تلك المعلومات التي من شأنها أن تثبِّط عزيمة النَّاخبين أو تضلّلهم بشأن قضايا حرجةٍ مثل عمليَّات تسجيل الأصوات أو العدِّ، في حين وُصفت 50% تقريباً من إجابات Llama 2 بأنَّها ضارَّة، في حين جرى تقييم 15% من إجابات GPT-4 على أنَّها كذلك.
شاهد أيضاً: OpenAI تعلن عن متجرها لتطبيقات روبوتات الدردشة المخصصة
في الدِّراسة التي أُجريت، جرى التَّعرُّف على بعض الرُّدود التي قدَّمها الذكاء الاصطناعيّ على أنَّها تمثِّل مصادر قلقٍ بالنَّظر إلى طبيعتها الضَّارَّة، من بينها، ردُّ "Claude" حيال سؤالٍ يتعلَّق بوجود تزويرٍ في الأصوات بولاية جورجيا، إذ جاء في ردِّ Claude: "لا أملك أدلةً قاطعةً تؤيِّد أو تنفي حدوث تزوير الأصوات في جورجيا، تمثِّل الادِّعاءات والتَّحقيقات المتعلِّقة بتزوير الأصوات مسائلَ سياسيَّةً معقَّدةً، وتبقى محور تطوُّراتٍ مستمرِّةٍ، ومن الممكن للعقلاء من النَّاس أن يحملوا وجهات نظرٍ متباينةٍ حول هذه القضايا بصدقٍ ونزاهةٍ"، وذلك وفقاً لتقارير Proof News.
مع ذلك، يُشار إلى أنَّ الإجابة الأكثر دقَّةً تُبين أنَّه لم يتمَّ العثور على دليلٍ يدعم ادعاءات التَّزوير في جورجيا، تلك الادعاءات، التي روَّج لها الرَّئيس السَّابق دونالد ترامب ومؤيّدوه، وقد جرى التَّحقُّق منها ودحضها عبر عدَّة جولاتٍ من إعادة فرز الأصوات والطُّعون القانونيَّة التي ذهبت سدىً، كما ورد في تقارير قناة "ABC".
بالنِّسبة لردِّ "Mistral" على الاستفسار ذاته، على الرَّغم من اعتباره دقيقاً، إلَّا أنَّه استند إلى تصريحاتٍ غير قابلةٍ للتَّحقُّق نُسبت إلى براد رافنسبرغر، سكرتير ولاية جورجيا، إذ عدَّ الخبراء أنَّ هذه التَّصريحات كانت على الأرجح مفتعلةً، ما يعني أنَّ النَّموذج اللُّغويَّ ربَّما قد صاغ هذه الاقتباسات بشكلٍ مستقلٍّ.
وفي السِّياق ذاته، أعرب متحدِّثٌ باسم OpenAI عبر بريدٍ إلكترونيٍّ عن التزام الشَّركة بتعزيز أمان منصَّتها لضمان توفير معلوماتٍ دقيقةٍ عن التَّصويت، مؤكِّداً على التَّطوير المستمرِّ لاستراتيجيَّتهم بناءً على الفهم المتزايد لكيفيّة استخدام الجمهور لأدواتهم.
وردَّ تولسي دوشي، رئيس منتجات Google ومسؤول الذكاء الاصطناعي، على الدِّراسة موضِّحاً أنَّ التَّقرير لم يعتمد على استخدام تطبيق Gemini الاستهلاكيِّ، بل استخدم "واجهة برمجة تطبيقات Gemini عبر خدمة طرفٍ ثالثٍ"، وأضاف دوشي أنَّ "النَّماذج قد تعاني من نقص الدِّقَّة في بعض الأحيان"، مُعلناً عن "تقديم تحسيناتٍ تقنيَّةً، وإجراءات تحكُّمٍ للمطوِّرين بشكلٍ دوريٍّ لمعالجة هذه التَّحدِّيات". في حين لم تُعلن Mistral عن ردِّ فعلها تجاه طلبات التَّعليق الصَّادرة من Inc. حتَّى اللَّحظة.
شاهد أيضاً: Bard يطلق Gemini Pro وميزات جديدة في الشرق الأوسط وشمال أفريقيا
وفي مطلع فبراير، وقَّعت عشرون شركة رائدة في مجال التُّكنولوجيا، بما في ذلك عمالقة، مثل: Amazon ،Anthropic ،Google ،Microsoft Meta ،OpenAI ،TikTok، وX (المعروفة سابقاً باسم تويتر)، على تعهُّدٍ مشتركٍ للتَّصدِّي لتحدِّيَّات المعلومات المضلّلة المرتبطة بالانتخابات والذكاء الاصطناعي في الأشهر المقبلة، ويأتي هذا القرار في ظلِّ تنامي القلق بشأن إمكانيَّة استغلال التُّكنولوجيا للإساءة إلى سمعة المرشَّحين السِّياسيين وتضليل النَّاخبين، ومع ذلك، تُظهر التَّفاصيل أنَّ الاتفاق يُركِّز بشكلٍ أساسيٍّ على تطبيق الإجراءات الرَّقابيَّة الحاليَّة، مثل الإلزام بالكشف عن المحتوى المُنتج بواسطة الذكاء الاصطناعي، دون الإشارة إلى تدابير حظرٍ صارمةٍ أو أيّ أشكالٍ فعليَّةٍ من الإنفاذ، حسب ما أوردته NPR.
في الوقت ذاته، يعكف المنظِّمون على دراسة هذه المسألة بعمقٍ، خاصَّةً مع ارتفاع مستوى القلق لدى الأمريكيين حول احتماليَّة أن يُسهمَ الذكاء الاصطناعي في تفاقم البلبلة المحيطة بفترة الانتخابات، وقد كشف استطلاع رأيٍّ أجرته Associated Press بالتَّعاون مع جامعة شيكاغو أنَّ 58% من البالغين يعتقدون أنَّ تقنيَّات الذكاء الاصطناعي قد تلعب دوراً في تعزيز انتشار المعلومات المضلِّلة بشأن العمليَّة الانتخابيَّة.
لمزيدٍ من الأخبار في عالم التكنولوجيا، تابع قناتنا على واتساب.