كشفت الشركة عن نسختين: DeepSeek-V3.2، المصممة للاستخدام العام (الويب، والتطبيقات، وواجهات برمجة التطبيقات)، وDeepSeek-V3.2 Speciale، الموجهة للأبحاث المتقدمة. يجمع كلا الإصدارين بين وضع التفكير المنطقي والقدرة على استخدام أدوات خارجية - مثل محركات البحث أو بيئات البرمجة - دون فقدان الترابط، مما يسمح بحل المشكلات المعقدة خطوة بخطوة. هذا يعني أن الذكاء الاصطناعي لا يفكر فقط كنموذج تقليدي، بل يعرف أيضًا متى يستخدم الآلة الحاسبة، أو يُشغّل برنامجًا نصيًا، أو يبحث عن معلومات قبل مواصلة عملية التفكير المنطقي.
يفتخر DeepSeek ببنيةٍ هائلة تضم 671 مليار مُعامل. في نموذج الذكاء الاصطناعي، يعمل المُعامل كإعداد داخلي يُحدد كيفية تفسيره للعالم. كلما زادت المُعاملات، زادت الفروق الدقيقة التي يُمكنه التقاطها، وزادت تعقيد استجاباته. لكن إدارة هذا العدد الهائل من المُعاملات عادةً ما تكون مُكلفة للغاية من حيث قوة الحوسبة.
يكمن الابتكار في أنه لا يستخدم كل هذه القوة الحاسوبية دفعةً واحدة. بفضل نظام يُسمى Sparse Attention، يُفعّل النموذج المُعاملات التي يحتاجها فقط في أي وقت، حوالي 37 مليارًا لكل مُعامل (والمُعامل هو وحدة نصية صغيرة جدًا، مثل مقطع لفظي أو كلمة قصيرة). يشبه الأمر إلى حدٍ ما امتلاك مكتبة ضخمة، ولكن مع مراجعة الكتب اللازمة فقط للإجابة على كل سؤال، بدلاً من محاولة قراءتها جميعًا دفعةً واحدة.
النتيجة العملية هي أن DeepSeek قادر على توفير قوة أكبر بموارد أقل. علاوة على ذلك، يمكنه العمل مع نوافذ سياقية هائلة - تصل إلى 128,000 رمز - وهو ما يعادل معالجة وحفظ معلومات كتاب كامل في محادثة واحدة دون تفويت أي فصل. هذا يفتح الباب أمام تحليلات مطولة ووثائق معقدة ومحادثات متواصلة دون أن يفقد الذكاء الاصطناعي تماسكه.
وفقًا لمعايير الأداء التي نشرتها الشركة، يُضاهي الطراز الجديد، بل ويتفوق على GPT-5 وGemini-3 Pro، في اختبارات المنطق والرياضيات.
أحدث DeepSeek لا تأتي مع اشتراك مميز أو عقد شركة. إنها مجانية ومفتوحة المصدر وجاهزة لإحداث نقلة نوعية في عالم الذكاء الاصطناعي من جديد.
- الرابط DeepSeek

ليست هناك تعليقات:
إرسال تعليق