الاقتصادية

علي بابا تطلق نموذج الترميز الضخم Qwen3-Coder-480B-A35B-Instruct

أعلنت شركة علي بابا عن إطلاق نموذجها الجديد في مجال الترميز المفتوح Qwen3-Coder-480B-A35B-Instruct، والذي يُعد الأكثر تطورًا حتى الآن، حيث يضم 480 مليار معلمة، منها 35 مليار معلمة نشطة تعزز من أداء النموذج.

يتميز هذا النموذج بقدرته الفريدة على التعامل مع طول سياق رمزي يصل أصلاً إلى 256 ألف رمز، مع إمكانية التوسع عبر تقنيات الاستقراء ليصل إلى مليون رمز، ما يمنحه تفوقًا كبيرًا في معالجة كميات ضخمة من البيانات البرمجية.

وأكدت علي بابا أن Qwen3-Coder يحقق نتائج متقدمة على العديد من معايير تقييم الترميز، مثل معيار SWE-bench-Verified.

إلى جانب النموذج، طرحت علي بابا أداة مفتوحة المصدر تحت اسم Qwen Code، وهي أداة تعتمد على سطر الأوامر للترميز، مستوحاة من Gemini Code، وتحتوي على ميزات متقدمة مثل مطالبات مخصصة وبروتوكولات لاستدعاء الوظائف بهدف تعزيز إمكانيات النموذج في تنفيذ المهام البرمجية.

تم تدريب Qwen3-Coder على مجموعة ضخمة تتألف من 7.5 تريليون رمز، منها 70% من الأكواد البرمجية، مما يُمكّنه من أداء مهام برمجية متقدمة مع الحفاظ على قدرات عامة ورياضية متميزة.

كما استفاد النموذج من تدريب إضافي باستخدام التعلم المعزز على مهام برمجية واقعية، مما أدى إلى زيادة كبيرة في معدلات نجاح تنفيذ الأكواد.

يمكن للمطورين الاستفادة من Qwen3-Coder عبر عدة واجهات استخدام مثل Qwen Code وClaude Code وCline، وهو متاح من خلال منصة Alibaba Cloud Model Studio مع دعم الوصول إلى واجهات برمجة التطبيقات API.

وأعلنت علي بابا أنها تواصل تطوير نماذج بأحجام مختلفة تهدف إلى تقديم توازن بين الأداء القوي وتقليل تكاليف النشر، كما تجري أبحاثًا لاستكشاف إمكانيات وكيل الترميز في تحقيق التحسين الذاتي، مما قد يفتح آفاقًا جديدة في مجال البرمجة المعتمدة على الذكاء الاصطناعي.

 

 

اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى