حيلة من Mark Zuckerberg: الذكاء الاصطناعي يُدرّب نفسه بنفسه!
استراتيجيات ذكيّةٌ من الرئيس التنفيذي لشركة Meta، لحل مشكلات الحصول على بيانات التدريب المستخدمة في تعليم الذكاء الاصطناعي.
يجري سباقٌ محمومٌ للعثور على مجموعاتٍ ضخمةٍ من البيانات التي تُعلِّم الذكاء الاصطناعي كيفيَّة التَّفكير كالبشر، بعد الكشف عن أحدث نموذجٍ للذكاء الاصطناعي -الذي يُزعَمُ تفوُّقه على نماذج أُخرى رائدة مثل Gemini من Google- يعتقد Mark Zuckerberg، الرَّئيس التَّنفيذيُّ لشركة Meta، أنَّ هناك بديلاً للنَّهج المعقَّد والمحفوف بالمشاكل القانونيَّة المتَّبع حاليَّاً في تدريب الذَّكاء الاصطناعيّ باستخدام البيانات المتاحة للعامَّة، وهو استخدام البيانات الاصطناعيَّة بدلاً من ذلك، إذ يذكر Zuckerberg أنَّه يمكن استخدام نواتج الذكاء الاصطناعيّ لتدريب الذَّكاء الاصطناعي نفسه. [1]
يتطلَّب تدريب الذَّكاء الاصطناعيّ كميَّاتٍ هائلةً من البيانات، فبإدخال الشَّركات المعنيَّة المزيد من البيانات في تدريب الخوارزميَّات، تتمكَّن هذه الخوارزميَّات من اكتساب فهمٍ أعمق للتَّواصل البشريّ، ممَّا يمكن أن يُسهمَ في جعل مخرجاتها تظهر بصورةٍ أكثر دقَّةً وأقرب إلى ما يصنعه الإنسان.
شاهد أيضاً: هل سينتشر استخدام AI بين الجمهور العام في 2025؟ إليك توقع Bill Gates
وكانت شركة Apple قد أبرمت مؤخَّراً صفقةً بقيمة عشرات الملايين من الدُّولارات للحصول على صورٍ من موقع Shutterstock في ظلّ توجُّهها القويّ نحو تطوير تقنيَّات الذكاء الاصطناعي خلال هذا العام، وفي سياقٍ مماثلٍ، وقَّعت Google صفقةً للوصول إلى المحتوى الذي ينشره مستخدمو Reddit على هذه المنصَّة الاجتماعيَّة؛ لتدريب نظام الذكاء الاصطناعي Gemini الخاصِّ بها، لكن وجدت كلٌّ من OpenAI وGoogle مؤخَّراً نفسها في مواجهة مشكلاتٍ قانونيَّةٍ بالغة الأهميَّة محتملة الحدوث بسبب احتماليَّة انتهاك حقوق الملكيَّة الفكريَّة لمستخدمي YouTube، نتيجةً لنسخ نصوص ملايين من مقاطع الفيديو المرفوعة، وهذا ليس النَّموذج الوحيد لتدريب البيانات المشكوك فيها في مجال الذَّكاء الاصطناعيِّ، إذ تقاضي صحيفة New York Times شركة OpenAI لنسخ الأخيرة أرشيف أخبارها.
وفي مقابلةٍ أُجريت معه عبر مصدر الأخبار التّقنيَّة Command Line، زعم Zuckerberg أنَّ صُنَّاع الذَّكاء الاصطناعيّ قد أغفلوا حيلةً مهمَّةً ولم يعتمدوا بالقدر الكافي على الذكاء الاصطناعيّ نفسه كمصدر لبيانات التَّدريب، وقد قدَّم فكرةً تتمثَّل في أنَّ "النَّماذج تحاول التَّعامل مع مشكلاتٍ مختلفةٍ"، حسب قوله، "ثُمَّ عندما ترى أيَّ المسارات تنجح، تستخدم ذلك للتَّعزيز".
في الواقع، يتمُّ تعيين الذكاء الاصطناعي مثل Llama 3 التَّابع لـ Meta لمعالجة مشكلةٍ بعدَّة طرقٍ مختلفةٍ، يُلاحظ أيُّها يبدو أنَّه سيؤدّي إلى الإجابة الصَّحيحة، ثُمَّ تُستخدم مخرجات تلك المحادثات كإدخالٍ لتدريب الذّكاء الاصطناعيّ نفسه، وفقاً لـ Zuckerberg، وبحسب قوله: "يتعلَّق الأمر بحلقاتِ التَّغذية الرَّاجعة بدلاً من استخدام أيّ نوعٍ من المجموعات الأوليَّة للبيانات"، حيث يحدث التَّدريب على البيانات الفعليَّة.
لنأخذ مثالاً بسيطاً لفهم هذه العمليَّة، عند تدريب كلبٍ على جلب الكرة، تستطيع تعزيز السُّلوكيَّات الإيجابيَّةِ مثل ركضه لالتقاط الكرة وإعادتها إليك، وذلك بمكافأته بشيءٍ لذيذٍ كلَّما قام بالعمل المطلوب بشكلٍ صحيحٍ، وهذا يتكرَّر عدَّة مراتٍ، في عالم الذكاء الاصطناعي، يُعادل هذا الأمر استخدام المخرجات 'الجيّدة' للذَّكاء الاصطناعيّ، مثل حلّ مسألةٍ رياضيَّةٍ معقَّدةٍ أو الإجابة على حقيقةٍ تاريخيَّةٍ بشكلٍ صحيحٍ، ومن ثُمَّ إعادة استخدام هذه المخرجات لتدريب النَّظام من جديدٍ، وهذه التّقنيَّة وفقاً لما ذكرته Business Insider، استخدمتها شركة الذَّكاء الاصطناعيِّ Anthropic لتدريب نظام Claude الذَّكيّ، وحتَّى OpenAI قد نظرت في استخدامها لتدريب ChatGPT.
شاهد أيضاً: Zuckerberg يصف Facebook بالشركة الأصغر مع ارتفاع أرباح Meta عام 2023
لكن يكمن التَّحدّي هنا في ضرورة وجود بياناتٍ جيِّدةٍ، وهذه مشكلةٌ قد تواجه أيَّ شركةٍ ناشئةٍ أو مبتكرةٍ في مرحلةٍ ما من تطوِّرها، إذ إنَّه بوجود بياناتٍ موثوقةٍ، مثلاً حول كيفيَّة توليد الأموال من فكرةٍ جديدةٍ في سوقٍ قائمٍ، أو بياناتٍ دقيقةٍ حول مشاعر العملاء تجاه منتجٍ أو خدمةٍ معينةٍ، يمكن للشَّركات اتِّخاذ قراراتٍ أكثر استنارةً بشأن كيفيَّة توجيه جهودها.
يبقى العثور على بياناتٍ جيدةٍ تحديَّاً كبيراً كما ذكرنا سابقاً، والقاعدة القديمة التي تقول 'القمامة تدخل، القمامة تخرج' تنطبق على جميع العمليَّات التّجاريَّة بما فيها تدريب الذكاء الاصطناعي، كما يتضح من الأمثلة السَّلبيَّة، جميعنا شاهدنا كيف يمكن للذكاء الاصطناعي أن يولِّد 'هلوسات' بالحقائق كأنَّها حقيقيَّةٌ، أو ينتج استجاباتٍ ضارةً أو غير صحيحةٍ أو مقلقة ردَّاً على الأسئلة، في مثال Zuckerberg، السُّؤال هو كم من الوقت سيمرُّ قبل أن تفشل آليَّات رقابة الجودة على بيانات الذكاء الاصطناعي الاصطناعيَّة، أو أنَّ الذكاء الاصطناعي الهمجي يظهر جوعه الشَّديد للمدخلات بحيث تجازف الشَّركة بإدخال أيّ بيانات بغضِّ النَّظر عن جودتها.
وهذا من شأنه أن يُشكِّل جرس إنذارٍ آخر، في حال كنت بحاجةٍ إلى مزيد من التَّحذيرات، لإعادة التَّحقُّق من صحَّة استجابات الذَّكاء الاصطناعيِّ في حال كنت تعتمد عليها في عملك.