اقتصاد وتكنولوجيا

DeepSeek-V3: ثورة جديدة في الذكاء الاصطناعي مفتوح المصدر بتقنيات متطورة

أعلنت شركة DeepSeek AI الصينية عن إطلاق نموذجها الجديد DeepSeek-V3، الذي يُعدّ من أبرز النماذج المفتوحة المصدر في مجال الذكاء الاصطناعي.

يعتمد هذا النموذج على تقنية جديدة تُعرف بـ “Mixture-of-Experts” (MoE)، ويضم 671 مليار مَعْلَمة، مع تفعيل 37 مليار مَعْلَمة لكل إدخال نصي، مما يجعله واحدًا من أقوى النماذج عالميًا.

 تفوق الأداء على المنافسين

أثبت النموذج تفوقه على أبرز النماذج المغلقة المصدر، مثل GPT-4o من OpenAI وClaude 3.5 من Anthropic، في تسعة معايير أداء رئيسية.

يُظهر هذا التفوق قدرة DeepSeek-V3 على التميز في معالجة النصوص وتحليل البيانات، مما يجعله منافسًا قويًا في سوق الذكاء الاصطناعي.

 كفاءة في التكلفة والتشغيل

استغرق تدريب DeepSeek-V3 حوالي 2.788 مليون ساعة باستخدام وحدات معالجة الرسوميات H800، بتكلفة تُقدّر بنحو 5.6 ملايين دولار. بالمقارنة، نموذج Llama 3 من Meta، الذي يضم 405 مليارات مَعْلَمة، احتاج إلى 30.8 مليون ساعة تدريب. يعود انخفاض التكلفة في DeepSeek-V3 إلى تحسينات هندسية عميقة وتقنيات متطورة. كما أن تكلفة تشغيل النموذج تُعد أقل بعشر مرات من النماذج المنافسة، مما يتيح تشغيله بكفاءة أعلى.

 إتاحة النموذج للمجتمع التقني

في خطوة لتعزيز النماذج المفتوحة المصدر، أصبح نموذج DeepSeek-V3 متاحًا للتنزيل عبر منصتي GitHub وHuggingFace. يُعدّ هذا الإطلاق خطوة هامة لتوسيع الوصول إلى تقنيات الذكاء الاصطناعي المتقدمة، مما يُمكّن المطورين والباحثين من الاستفادة من إمكانياته بأسعار معقولة.

تؤكد شركة DeepSeek أن النموذج الجديد يُمثل خطوة كبيرة نحو تقليل الفجوة بين النماذج المفتوحة والمغلقة المصدر.

يُتوقع أن يُحدث هذا النموذج تحولًا جذريًا في كيفية استخدام تقنيات الذكاء الاصطناعي، مما يُسهم في تعزيز الابتكار على مستوى عالمي.

مقالات ذات صلة

اترك تعليقاً

زر الذهاب إلى الأعلى