ضمن هذه السلسلة الجديدة، يُعد Mistral Large 3 الخيار الأقوى، وهو نموذج رائد بهندسة مزيج الخبراء و675 مليار معلمة، 41 مليار منها نشطة. كما تتوفر سلسلة Mistral 3، التي تضم ثلاثة نماذج تحتوي على 3 مليارات، و8 مليارات، و14 مليار معلمة، مصممة حصريًا للعمل على الأجهزة المحلية دون الحاجة إلى اتصال بالإنترنت.
يُصدر كل هذا بموجب ترخيص Apache 2.0، مما يسمح بالاستخدام التجاري غير المقيد. ولكن ما يميز Mistral Large 3 حقًا هو دمجه لقدرات النصوص والصور متعددة الوسائط مع سياق يضم 256,000 رمز مميز. كل ذلك بدعم متعدد اللغات في نموذج واحد مفتوح المصدر.
And Mistral Large 3, a frontier class open source MoE. pic.twitter.com/dEUxTX2be6
— Mistral AI (@MistralAI) December 2, 2025
يُعدّ Mistral Large 3 المشروع الأكثر طموحًا للشركة الناشئة حتى الآن. في الواقع، يهدف إلى اختراق مجالٍ تُهيمن عليه كلٌّ من OpenAI وججل . يتميز بهندسة MoE تُفعّل 41 مليار مُعامل من أصل 675 مليار مُعامل. تم تدريب هذا النموذج من الصفر على 3000 بطاقة رسومات NVIDIA H200.
لاستخدامه توجه إلى هذا الرابط

ليست هناك تعليقات:
إرسال تعليق