معهد الابتكار التكنولوجي في أبوظبي يطلق Falcon Mamba 7B
النموذج الأحدث في سلسلة النّماذج اللّغويّة الكبيرة، والذي يتفوّق على نماذج مثل Llama 3 وMistral 7B، وفقاً لتقييمات Hugging Face
هذا المقالُ متوفّرٌ باللّغة الإنجليزيّة من هنا.
أعلن معهد الابتكار التّكنولوجي (Technology Innovation Institute - TII) في أبوظبي عن إطلاقِ النّموذج اللّغويّ الجديد Falcon Mamba 7B، الّذي يُعَدّ الأحدث في سلسلة نماذج Falcon الكبيرة. وقد حظي هذا النّموذجُ بتقديرٍ كبيرٍ من قبل منصّة Hugging Face، باعتبارهِ أفضل نموذجٍ لغويٍّ مفتوح المصدر يستخدمُ بُنية نموذج لغة الفضاء الزّمنيّ (State Space Language Model - SSLM)، متجاوزاً بذلك العديد من النّماذج المنافسة، مثل Llama 3.1 8B وLlama 3 8B من شركة Meta وMistral 7B.
وما يميّز فالكون مامبا 7B هو اعتمادهُ على بنية SSLM، بدلاً من النّهج التّقليديّ القائم على المحوّل (Transformer)، ممّا يجعلهُ أكثر كفاءةً في معالجة المعلومات المُعقّدة والمُتغيّرة بمرور الوقت دون الحاجة إلى ذاكرةٍ إضافيّةٍ، وهذا ما يجعلهُ مناسباً لأداء مهامٍّ، مثل التّقدير والتّنبؤ والتّحكم، إلى جانب أدائه المُتميّز في معالجة اللّغة الطّبيعيّة، مثل التّرجمة الآليّة وتلخيص النّصوص ومعالجة الصّوت.
ومنذُ إطلاقهِ، تمّ تحميل نماذج فالكون أكثر من 45 مليون مرّةٍ، ممّا يعكسُ انتشارها الواسع واستخدامها العالميّ، ومن المُقرّر أن يكونَ فالكون مامبا 7B مُتاحاً بموجب ترخيص TII Falcon License 2.0، الّذي يُشجّع على الاستخدامِ المُسؤولِ للذكاء الاصطناعي.
وفي سياقٍ مُتّصلٍ، أطلقت شركة G42 مبادرة Inception النّموذج اللّغوي الكبير JAIS 70B الّذي يهدفُ إلى تعزيز معالجة اللّغة العربيّة الطّبيعيّة NLP، ويحتوي هذا النّموذجُ على 70 مليار معلّمةٍ، ويهدفُ إلى دعم تبنّي خدماتِ الذّكاء الاصطناعيّ التّوليديّ عبر مختلف القطّاعات، ممّا يُسهمُ في تحسين خدمة العملاء، وإنشاء المحتوى، وتحليل البيانات.
ومن جدير بالذّكر أنّ معهد الابتكار التكنولوجي كان قد كشفُ في شهر مايو عن أحدث مشاريعه في سلسلة النّماذج اللّغوية الكبيرة، فالكون 2، الّذي يضمُّ نسختين: "فالكون 2 11B"، وهو نموذجٌ لغويٌّ كبيرٌ يحتوي على 11 مليار معلّمةٍ تمّ تدريبهُ على 5.5 تريليون وحدة بيانات، وفالكون 2 11B VLM، الّذي يتميّز بقدرات تحويل الرّؤية إلى لغةٍ.
يبرز فالكون 2 11B VLM كأوّل نموذجٍ مُتعدّد الوسائط من معهد الابتكار التّكنولوجيّ، حيث يتمتّعُ بقدرةٍ على تحويل الصّور إلى نصوصٍ، وقد أثبتت الاختباراتُ تفوّقهُ على المنافسين، بما في ذلك Llama 3 الّذي أطلقتهُ مؤخّراً Meta، حيث أظهر أداءً فائقاً وقريباً من مستوى نموذج Gemma 7B من Google.
ومع توفر نماذج فالكون 2 11B كمصدرٍ مفتوحٍ، يُتيح معهد الابتكار التّكنولوجيّ للمطوّرين حول العالم إمكانيّةَ الوصول غير المُقيّد إلى تقنيات الذّكاء الاصطناعيّ. ويعتزمُ المعهدُ توسيعَ سلسلة فالكون 2، لتشملَ قدراتٍ مُتقدّمةً في التّعلّم الآليّ، مثل تقنية خليط الخبراء (Mixture of Experts - MoE)، لرفع مستوى الأداء إلى مستوياتٍ أعلى.