3 خطواتٍ لتجنب أخطاء الذكاء الاصطناعيّ في الاقتباسات الشهيرة
لا تثق بشكلٍ كاملٍ في أدوات الذكاء الاصطناعيّ للعثور على الاقتباسات الشهيرة إلّا بعد اتخاذ هذه الخطوات الثلاث!
تعدّ أدوات الذّكاء الاصطناعيّ التّوليدية، مثل "شات جي بي تي" (ChatGPT) أدواتٍ قويةً وفعّالةً في عمليات العصف الذّهني وصياغة الأفكار، لكنّها قد تخطئ أحياناً، خاصةً عندما يتعلّق الأمر بالاقتباسات الشّهيرة. تعتمد هذه الأدوات على تحليل كميّاتٍ هائلةٍ من المعلومات المتاحة على الإنترنت، والتّي قد تكون دقيقةً أو غير دقيقةٍ. لذلك، من الضروري أن يتّخذ المستخدمون بعض التّدابير الاحتياطيّة قبل الاعتماد على الاقتباسات التّي تقدّمها.
يوضّح كارمين جالو، أستاذٌ في جامعة هارفارد ومتحدّثٌ رئيس ومؤلّف كتاب "مخطط بيزوس" (The Bezos Blueprint)، بعض التّحديات المتعلّقة باستخدام الذّكاء الاصطناعيّ في هذا السّياق. حيث يشرح جالو كيف يمكن أن تؤدّي الأخطاء في الاقتباسات إلى فقدان المصداقيّة لدى الجمهور، ويعرض خطواتٍ محدّدةً لتجنّب هذه الأخطاء.
فيلم "ميجالوبوليس" والخطأ في الاقتباسات
قدّم جالو مثالاً على هذه المشكلة من خلال فيلم "ميجالوبوليس" للمخرج فرانسيس فورد كوبولا. حيث تعرّض هذا الفيلم لانتقاداتٍ سلبيةٍ كبيرةٍ، وكان أحد نقّاد صحيفة وول ستريت جورنال قد وصفه بـ"كارثة كوبولا". في محاولةٍ للتّخفيف من وطأة النّقد، أطلقت شركة ليونزجيت الموزّعة للفيلم مقطعاً دعائيّاً يُذكّر الناس أنّ فيلم "العرّاب" The Godfather))، للمخرج كوبولا تعرّض أيضاً لانتقاداتٍ حادةً في بداية عرضه، إلّا أنّ هذا الإعلان كان يعتمد على اقتباساتٍ مُختلقةً تمّ الحصول عليها من شات جي بي تي.
الخطأ الذّي ارتكبه فريق التّسويق في هذه الحالة هو الاعتماد بشكلٍ أعمى على أداة ذكاءٍ اصطناعيٍّ دون التّحقّق من مصدر الاقتباسات. هذا مثالٌ واضح على أهميّة مراجعة الاقتباسات بعنايةٍ قبل استخدامها، سواءً كان ذلك في الأفلام، أو في العروض التّقديميّة أو المحتويات الأخرى.
ثلاث خطواتٍ لتجنّب الأخطاء
للتأكّد من دقة الاقتباسات وتجنّب ما يسمى "بهلوسات الذّكاء الاصطناعيّ"، يمكن اتّباع ثلاث خطواتٍ أساسيّةٍ:
- التّحقّق من المصدر: عندما تحصل على اقتباسٍ من أداة ذكاءٍ اصطناعيٍّ، يجب عليك دائماً طلب المصدر الأصليّ لهذا الاقتباس. إذا لم يكن الاقتباس مدعوماً بمصدرٍ موثوقٍ، فمن المحتمل أنّه غير دقيقٍ أو مختلقٍ. يوضّح جالو كيف طلب من أدوات الذّكاء الاصطناعيّ اقتباساتٍ من كتبه الخاصّة، ووجد أنّ بعضها غير دقيقٍ، أو لا يمكن إرجاعه إلى مصدرٍ واضحٍ.
- تجنّب الاقتباسات الشّهيرة المكرّرة: تتغيّر العديد من الاقتباسات الشّهيرة مع مرور الوقت وتداولها بين الناس. على سبيل المثال، هناك قصّةٌ مشهورةٌ عن ونستون تشرشل تقول إنّه ألقى خطاباً يتكوّن من ثلاث كلماتٍ فقط: "لا تستسلم أبداً". الحقيقة أنّ الخطاب كان أطول بكثيرٍ، وتضمّن كلماتٍ مختلفةٍ. الاعتماد على مثل هذه الاقتباسات غير الدّقيقة يمكن أن يقوّض مصداقيتك.
- البحث عن اقتباساتٍ غير مألوفةٍ: بدلاً من الاعتماد على الاقتباسات الشّهيرة والمكرّرة، يمكن للمستخدمين البحث في مصادر أصليّةٍ وغير تقليديّةٍ للحصول على اقتباساتٍ فريدةٍ ومثيرةٍ للاهتمام. يُظهِر هذا للمستمعين أو القراء أنّك بذلت جهداً في البحث، وأنّك تقدّم محتوى أصيلاً.
شاهد أيضاً: لا تقع في فخ الوعود الزائفة للذكاء الاصطناعي
تظهر أهميّة الحذر من الاقتباسات المزيّفة في العديد من الأمثلة، مثل الاقتباس المنسوب إلى ألبرت أينشتاين: "لا يمكنك استخدام خريطةٍ قديمةٍ لاستكشاف عالمٍ جديدٍ". هذا الاقتباس يبدو رائعاً، لكنّه غير دقيقٍ، ولم يقله أينشتاين. عندما طُلب المصدر لهذا الاقتباس من شات جي بي تي، تمّ توضيح أنّه لا يوجد مصدرٌ مباشرٌ يربط أينشتاين بهذا القول.