أطلقت شركة DeepSeek الصينية إصدارًا تجريبيًا من نموذجها الجديد DeepSeek V4، مع فتحه للمطورين، بهدف منافسة النماذج المغلقة من شركات أمريكية بارزة مثل OpenAI وجوجل وأنثروبيك. ويقدّم النموذج الجديد دعمًا لسياق يصل إلى مليون رمز، مع تصميم يركّز على خفض التكلفة، ويتوفر بنسختين رئيسيتين، هما Pro و Flash، وهما متاحتان عبر الموقع الرسمي للشركة، إضافةً إلى تحديث واجهة البرمجة (API) وإتاحتها فورًا. وتوضّح الشركة أن الفارق الأساسي بين النسختين يوجد في عدد المعلَمات “Parameters”؛ إذ تضم نسخة Pro نحو 1.6 تريليون معلَمة إجمالًا مع 49 مليار معلَمة نشِطة، في حين تأتي نسخة Flash بنحو 284 مليار معلَمة إجمالًا و 13 مليار معلَمة نشِطة، مما يجعلها خيارًا أخف وأقل تكلفة. وتؤكد DeepSeek أن نسخة Pro تعزّز قدرات “الوكلاء الأذكياء Agentic AI”، وتقدّم معرفة واسعة، مع أداء متقدّم في مجالات الرياضيات وعلوم الحاسوب والبرمجة؛ إذ تنافس النماذج المغلقة الرائدة، مع اقترابها من أداء نماذج مثل Gemini 3.1 Pro في بعض المهام. وتوفّر نسخة Flash أداءً قريبًا من Pro في مهام الاستدلال الأساسية، خاصةً في المهام البسيطة للوكلاء، مع ميزة رئيسية، وهي انخفاض التكلفة. ويُعد V4 تحسنًا ملحوظًا مقارنةً بالإصدارات السابقة، خاصةً في مجال البرمجة، الذي أصبح عنصرًا محوريًا في تطوير الوكلاء الأذكياء، وهو المجال الذي أسهم في انتشار أدوات مثل ChatGPT Codex و Claude Code. وتربط الشركة الإطلاق أيضًا بتقدّم الصناعة الصينية المحلية، إذ تشير إلى توافق النموذج مع تقنيات هواوي التي تدعم البنية التحتية لتلك النماذج بنحو أساسي. ويأتي هذا الإعلان بعد نحو عام من إطلاق نموذج R1، الذي أثار جدلًا واسعًا بسبب تكلفته المنخفضة مقارنةً بالمنافسين. ولم تكشف DeepSeek حتى الآن عن تكلفة تدريب V4 أو العتاد المُستخدم، وسط اتهامات أمريكية باستخدام شرائح محظورة من إنفيديا، إضافةً إلى مزاعم من أنثروبيك بشأن استخدام بيانات من نموذج Claude في تطوير منتجاتها. ويُتاح النموذج حاليًا للمستخدمين عبر منصة DeepSeek، مع إمكانية الوصول إلى الإصدارات المفتوحة، مما يبشر بمنافسة متصاعدة في سوق نماذج الذكاء الاصطناعي المتقدمة، خاصةً في فئة النماذج المفتوحة المصدر. نسخ الرابط تم نسخ الرابط