فينتك جيت: وكالات
انخفض سهم شركة “إنفيديا” بعد أن أفادت صحيفة “إنفورميشن” بأن شركة “ميتا بلاتفورمز” تجري محادثات لإنفاق مليارات الدولارات على رقائق الذكاء الاصطناعي من “غوغل“. مما يشير إلى أن الشركة الرائدة في مجال البحث على الإنترنت تحرز تقدماً في جهودها لإنشاء منافس لمسرع الذكاء الاصطناعي الأكثر مبيعاً في هذا المجال.
وتجري “ميتا” مناقشات لاستخدام الرقائق – المعروفة باسم وحدات معالجة الموتر (TPUs) – في مراكز البيانات بحلول عام 2027. وفقاً لصحيفة “إنفورميشن”، التي نقلت عن مصدر لم تُكشف هويته مطلع على المحادثات. كما أفادت الصحيفة أن “ميتا” قد تستأجر رقائق من قسم الحوسبة السحابية في “غوغل” العام المقبل.
ارتفعت أسهم شركة “ألفابيت”، المالكة لـ”غوغل”، بنسبة تصل إلى 2.7% في أواخر التداول. بينما انخفضت أسهم “إنفيديا” بنفس النسبة.
من شأن هذه الاتفاقية أن تسهم في ترسيخ وحدات المعالجة الحرارية (TPUs) كبديل لرقائق إنفيديا، وهي المعيار الذهبي لشركات التكنولوجيا الكبرى والشركات الناشئة، من “ميتا” إلى “أوبن إيه آي”. التي تحتاج إلى قوة حوسبة لتطوير وتشغيل منصات الذكاء الاصطناعي. وكانت غوغل قد أبرمت سابقاً صفقة لتزويد شركة “أنثروبيك” بما يصل إلى مليون رقاقة. ومع ذلك، لا تزال “إنفيديا” مهيمنة على السوق.
بعد الإعلان عن صفقة “أنثروبيك”، وصفها محلل “سيبورت”، جاي غولدبرغ، بأنها “إثبات قوي لفعالية” وحدات المعالجة الحرارية. وقال: “كان الكثيرون يفكرون فيها بالفعل، وربما يفكر فيها المزيد الآن”.
تقديرات الإنفاق الرأسمالي
ويرى محللا “بلومبرغ إنتليجنس” مانديب سينغ، وروبرت بيجار، أن استخدام “ميتا” المحتمل لوحدات المعالجة الحرارية من “غوغل”. أن الجهات الخارجية المزودة لنماذج اللغات الكبيرة من المرجح أن تستفيد من غوغل كمورد ثانوي لرقائق تسريع الاستدلال على المدى القريب.
تشير تقديرات الإنفاق الرأسمالي لشركة “ميتا”، والذي لا يقل عن 100 مليار دولار أميركي لعام 2026. إلى أنها ستنفق ما لا يقل عن 40-50 مليار دولار أميركي على سعة رقائق الاستدلال العام المقبل. وقد يتسارع نمو الاستهلاك والمتراكمات في “غوغل كلاود” مقارنة بشركات التوسعة الضخمة الأخرى ونظيراتها في السحابة الجديدة. وذلك بسبب طلب عملاء المؤسسات الراغبين في استخدام وحدات المعالجة المركزية (TPU) ووحدات معالجة جيميني (Gemini LLMs) على غوغل كلاود.
ستمثل الصفقة مع ميتا – إحدى أكبر الشركات إنفاقاً عالمياً على مراكز البيانات وتطوير الذكاء الاصطناعي – فوزاً لغوغل. لكن الكثير يعتمد على ما إذا كانت الرقائق ستظهر كفاءة الطاقة وقوة الحوسبة اللازمتين لتصبح خياراً قابلاً للتطبيق على المدى الطويل.
تكتسب شريحة “tensor” – التي طورت لأول مرة منذ أكثر من 10 سنوات خصيصاً لمهام الذكاء الاصطناعي – زخماً خارج شركتها الأم كوسيلة لتدريب وتشغيل نماذج الذكاء الاصطناعي المعقدة. وقد ازدادت جاذبيتها كبديل في وقت تشعر فيه الشركات حول العالم بالقلق من الاعتماد المفرط على “إنفيديا”، في سوق تعد فيه حتى شركة “AMD” وصيفاً بعيداً.
ما الفارق؟
صُممت وحدات معالجة الرسومات (GPUs)، وهي جزء من سوق الرقائق الذي تهيمن عليه “إنفيديا”، لتسريع عرض الرسومات – لا سيما في ألعاب الفيديو وتطبيقات المؤثرات البصرية الأخرى – لكن تبيّن أنها مناسبة تماماً لتدريب نماذج الذكاء الاصطناعي نظراً لقدرتها على التعامل مع كميات كبيرة من البيانات والعمليات الحسابية. من ناحية أخرى، تعد وحدات TPU نوعاً من المنتجات المتخصصة تعرف باسم الدوائر المتكاملة الخاصة بالتطبيقات، أو الرقائق الدقيقة المصممة لغرض منفصل.
في هذا السياق، ومن ناحية أخرى، هناك العديد من الأخبار المرتبطة بالقطاع والتي يمكنك متابعتها:






