الرئيسية الذكاء الاصطناعي هل يمكن الوثوق بالذكاء الاصطناعي في عمليات البحث؟

هل يمكن الوثوق بالذكاء الاصطناعي في عمليات البحث؟

أظهرت دراسةٌ جديدةٌ أنّ أدوات البحث الذّكيّة تقدّم معلوماتٍ غير دقيقةٍ، ممّا يثير بعض المخاوف بشأن الاعتماد عليها

بواسطة فريق عربية.Inc
images header

في ظلّ التّطوّرات السّريعة في مجال الذكاء الاصطناعي، يتّجه عملاق السّوق "غوغل" (Google)، بشكلٍ متزايدٍ نحو تقديم نتائج البحث الّتي يولّدها الذكاء الاصطناعي –بعد انطلاقةٍ متعثّرةٍ في العام الماضي– في حين تحاول شركاتٌ، مثل "أوبن إيه آي" (OpenAI)، تجربة هذه التّقنيّة المبتكرة، وكلّ هذا يشير إلى أنّ الذكاء الاصطناعي قد يكون مستقبل البحث عبر الإنترنت.

سيترك هذا التّطوّر أثره على موظّفي الشّركات تقريباً بغضّ النّظر عن القسم، إذ إنّ البحث عن المعلومات يشكّل جزءاً لا يتجزّأ من تجربة التّصفّح. ومع ذلك، تظهر دراسةٌ حديثةٌ أجريت من قبل مركز "تو" (Tow) للإعلام الرّقميّ في جامعة كولومبيا، ونشرت في مجلّة "كولومبيا جورناليزم ريفيو" (Columbia Journalism Review)، أنّه يجب على الموظفين توخّي الحذر مؤقّتاً، إذ تواجه أدوات البحث القائمة على الذكاء الاصطناعي -المقدّمة من عددٍ من المصنّعين الكبار- مشكلاتٍ جديدةً تتعلّق بالدّقّة.

وقد ركّزت الدّراسة على اختبار 8 أدوات بحثٍ بالذكاء الاصطناعي، منها "شات جي بي تي" (ChatGPT) و"بيربلكسيتي" (Perplexity) و"جيميني" (Gemini) من غوغل، بالإضافة إلى "كوبايلوت" (Copilot) من "مايكروسوفت" (Microsoft)، وإلى الأداة الصّينيّة الثّوريّة "ديب سيك" (DeepSeek). تمّ تقييم دقّة الإجابات الّتي تقدّمها هذه الأدوات عندما تتعامل مع خبرٍ صحفيٍّ، وفقاً لما أفاد به موقع "آرس تكنيكا" (Ars Technica) المتخصّص في الأخبار التّقنيّة. وتوصّلت الدّراسة إلى أنّ جميع أنظمة الذكاء الاصطناعي أظهرت معدّلات دقّةٍ منخفضةً بشكلٍ ملحوظٍ، حيث كانت الإجابات غير صحيحةٍ في 60% من الحالات.

ولم تكن النّتائج متشابهةً بين جميع الأنظمة؛ فقد سجّلت أداة بيربلكسيتي معدّل أخطاء يقارب 37%، بينما بلغ معدّل أخطاء شات جي بي تي 67%. وفي المقابل، حقّق نموذج "غروك 3" (Grok 3) التّابع لإيلون ماسك أسوأ النّتائج، إذ كانت نسبة الأخطاء تصل إلى 94% –قد لا يكون هذا مفاجئاً بالنّظر إلى أنّ ماسك وصف النّموذج بأنّه يأتي بقيود أمانٍ أخفّ مقارنةً بأنظمة الذكاء الاصطناعي المنافسة، ممّا يعكس نهجه الأكثر تساهلاً فيما يتعلّق بالدّقّة والحقائق وحرّيّة التّعبير. والأمر الأكثر إثارةً للقلق هو أنّ النّسخ المتميّزة والمدفوعة لبعض هذه الأدوات أحياناً كانت تقدّم أداءً أسوأ من نظائرها المجّانيّة.

ومن المهمّ التّفريق بين البحث باستخدام الذكاء الاصطناعي واستخدام روبوت الدّردشة المبنيّ على الذكاء الاصطناعي، الّذي يتّسم بحواره التّفاعليّ. في البحث، تقوم محرّكات البحث بالبحث نيابةً عن المستخدم بعد إدخال الاستفسار، وتُلخّص ما تعتبره التّفاصيل الهامّة من المحتوى الموجود على الإنترنت، ممّا يوفّر على المستخدم عناء قراءة المقال الأصليّ.

لكن تكمن المشكلة في أنّ هذه النّماذج الذّكيّة، مثل ذلك الزّميل الواثق الّذي يبدو دائماً على علمٍ، لا تحبّ الاعتراف بعدم معرفتها بالإجابة على استفسارٍ معيّنٍ. وبدلاً من القول "لا" عندما لا تتوفّر معلوماتُ موثوقةُ حول خبرٍ صحفيٍّ معيّنٍ، تميل أدوات الذكاء الاصطناعي إلى تقديم إجاباتٍ مختلقةٍ تبدو معقولةً، لكنّها في الواقع غير صحيحةٍ.

كما كشفت الدّراسة عن جانبٍ آخر، وهو أنّه حتّى عندما تزوّد هذه الأدوات المستخدمين بمراجع ترافق نتائج البحث (على افتراض أنّ المستخدمين يستطيعون زيارة هذه المواقع للتّحقّق من التّفاصيل)، فإنّ الرّوابط غالباً ما تقود إلى نسخٍ موزّعةٍ من المحتوى بدلاً من الوصول إلى النّسخ الأصليّة للنّاشرين. وفي بعض الحالات، تؤدّي هذه الرّوابط إلى صفحات ويبٍ غير موجودةٍ، حيث قامت جيميني وغروك 3 بذلك في أكثر من نصف المراجع.

لماذا يجب أن تهتمّ بهذا الأمر؟ التّجربة كانت محدّدةً نوعاً ما، إذ اعتمدت الدّراسة على مقالاتٍ إخباريّةٍ، ولم تتعمّق في تقييم دقّة نتائج البحث بالذكاء الاصطناعي لمحتوياتٍ أخرى عبر الإنترنت، بل تمّ اختبار الأدوات من خلال إدخال مقتطفاتٍ من مقالاتٍ إخباريّةٍ حقيقيّةٍ وطلب تلخيص المعلومات، بما في ذلك العنوان والتّفاصيل الأخرى.

تظلّ أهمّيّة الموضوع واضحةً، إذ إنّ الذكاء الاصطناعي قادرٌ على تسريع بعض المهامّ المكتبيّة الرّوتينيّة وتحسين كفاءة الموظّفين. ومن المحتمل أن يصبح البحث بالذكاء الاصطناعي الأساس الّذي يحلّ مكان البحث التّقليديّ على الويب، والّذي يمكن أن يكون مرهقاً في بعض الأحيان.

لكن إذا كان فريقك، على سبيل المثال، يبحث عن معلوماتٍ خلفيّةٍ لإدراجها في محتوى لنشره، أو يستعدّ لجمع موارد قبل بدء مشروعٍ جديدٍ، فعليهم أن يكونوا حذرين جدّاً عند الاعتماد على نتائج أدوات البحث هذه. تخيّل أنّك نشرت شيئاً على موقع شركتك، ثمّ اكتشفت لاحقاً أنّه مختلقٌ بواسطة أداة بحث ذكاء اصطناعي لم تعترف بعدم معرفتها بالإجابة الصّحيحة؛ هذه الحالة تعدّ مثالاً آخر على مشكلة "هلوسة الذكاء الاصطناعي"، ممّا يؤكّد الحاجة إلى وجود متخصّصين مؤهّلين لمراجعة نتائج هذه الأدوات عند استخدامها لتعزيز جهود شركتك.

شاهد أيضاً: Google تُوسّع ملخصات البحث بالذكاء الاصطناعي إلى 6 دول جديدة

تابعونا على قناتنا على واتس آب لآخر أخبار الستارت أب والأعمال
آخر تحديث:
تاريخ النشر: