“ميتا” تطور نموذجين للذكاء الاصطناعي لإطلاقهما في 2026
تعمل شركة “ميتا” على تطوير نموذج جديد للذكاء الاصطناعي يركز على توليد الصور ومقاطع الفيديو، يحمل الاسم الرمزي “مانجو” (Mango)، وذلك بالتوازي مع تطوير نموذج لغوي ضخم جديد مخصص للنصوص أُطلق عليه الاسم الرمزي “أفوكادو” (Avocado).
وقال أشخاص اطّلعوا على مناقشات داخلية داخل الشركة إنه من المتوقع إطلاق النموذجين خلال النصف الأول من عام 2026، في خطوة تعكس تصاعد المنافسة بين عمالقة التكنولوجيا على ريادة سوق نماذج الذكاء الاصطناعي التوليدية، بحسب صحيفة صحيفة وول ستريت جورنال.
وجاء الكشف عن هذه الخطط خلال جلسة عُقدت الخميس الماضي داخل “ميتا”، تحدَّث فيها رئيس قسم الذكاء الاصطناعي في الشركة أليكسندر وانج، إلى جانب كبير مسؤولي المنتجات كريس كوكس، بحسب أشخاص حضروا الجلسة أو اطّلعوا على ما دار فيها.
وأوضح وانج خلال الاجتماع أن النموذج الجديد المخصص للنصوص، والذي يحمل الاسم الرمزي Avocado، يركّز بشكل أساسي على تحسين قدراته في مجال كتابة الشيفرات البرمجية، في محاولة لتعزيز تنافسية “ميتا” في مجال النماذج اللغوية المتقدمة، التي أصبحت محوراً رئيسياً في سباق الذكاء الاصطناعي العالمي.
“نماذج العالم”
وأضاف وانج أن الشركة لا تزال في مراحل مبكرة من دراسة تطوير ما يُعرف بـ”نماذج العالم” (World Models)، وهي فئة من أنظمة الذكاء الاصطناعي التي تتعلم فهم البيئة المحيطة بها من خلال استيعاب المعلومات البصرية، ما يتيح لها بناء تصورات أعمق عن العالم الحقيقي وكيفية التفاعل معه، فخلال تدريبها تتعلم من الصور والفيديوهات وبيانات المستشعرات، كي تتعلم تلك النماذج القواعد الفيزيائية للكون وكيفية حركة الأشياء والكائنات وعلاقتها ببعضها البعض.
ويُنظر إلى هذا التوجه باعتباره أحد المسارات المستقبلية الطموحة في أبحاث الذكاء الاصطناعي، إذ قد يمكّن النماذج من محاكاة فهم البشر للواقع بشكل أكثر دقة وتعقيداً، وهو عنصر رئيسي لتطوير روبوتات وسيارات ذاتية القيادة وأنظمة ذكية قادرة على التفاعل مع العالم بطبيعة أقرب للبشر.
إعادة هيكلة واسعة
وكانت “ميتا” أجرت خلال الصيف الماضي إعادة هيكلة شاملة لفريق الذكاء الاصطناعي لديها، تضمنت تعيين ألكسندر وانج على رأس قسم جديد تم إنشاؤه خصيصاً لهذا الغرض تحت اسم Meta Superintelligence Labs.
وفي إطار هذه الاستراتيجية، قاد الرئيس التنفيذي للشركة مارك زوكربيرج بنفسه حملة توظيف مكثفة، تمكّن خلالها من استقطاب أكثر من 20 باحثاً من شركة OpenAI، إلى جانب تشكيل فريق جديد يضم أكثر من 50 باحثاً ومهندساً وموظفاً يتمتعون بخبرات متقدمة في مجالات الذكاء الاصطناعي المختلفة.
سباق محموم لإنشاء المحتوى المصور
ويُعد توليد الصور بالذكاء الاصطناعي أحد أبرز جبهات الصراع بين شركات تطوير النماذج الكبرى، في ظل الإقبال المتزايد من المستخدمين على هذه التقنيات واستخدامها في مجالات إبداعية وتجارية متعددة.
وفي سبتمبر الماضي، أطلقت “ميتا” مولد فيديو يعمل بالذكاء الاصطناعي تحت اسم Vibes، جرى تطويره بالتعاون مع شركة Midjourney.
وبعد أقل من أسبوع واحد فقط من إطلاق “ميتا” لأداتها الجديدة، أعلنت OpenAI عن إطلاق مولد الفيديو الخاص بها، والذي حمل اسم Sora.
وفي وقت سابق من العام الجاري، أدى إطلاق أداة Nano Banana لتوليد الصور من قِبَل شركة جوجل إلى رفع معدل تحميل تطبيق جيميناي، إذ ارتفع عدد المستخدمين النشطين شهرياً من نحو 450 مليون مستخدم في يوليو إلى أكثر من 650 مليون مستخدم بحلول أواخر أكتوبر.
وعقب إطلاق النسخة الثالثة من نماذج جيميناي Gemini 3 في نوفمبر، أعلن الرئيس التنفيذي لشركة OpenAI سام ألتمان، تفعيل “الكود الأحمر” داخل الشركة، في إشارة إلى الحاجة الملحّة لاستعادة الصدارة على مؤشرات أداء النماذج الرئيسية التي تقيس جودة وقدرات الذكاء الاصطناعي.
وسرعان ما انعكس ذلك على وتيرة الإطلاقات، إذ أقدمت الشركة على طرح نسخة جديدة من منتجها الخاص بتوليد الصور، ضمن خدمة ChatGPT Images.
وخلال اجتماع مع صحافيين عُقد الأسبوع الماضي، شدد ألتمان على الأهمية الكبيرة لتقنيات توليد الصور بالذكاء الاصطناعي بالنسبة للمستهلكين.
واعتبر أنها تمثّل أحد أكثر مجالات الاهتمام الرئيسية للمستخدمين، ووصفها بأنها ميزة “لاصقة” تجعل المستخدمين يعودون مراراً إلى المنصات التي توفر هذه القدرات.
نقلاً عن: الشرق
