أطلق قسم Google التابع لشركة Alphabet معالجَين متخصصَين للذكاء الاصطناعي يوم الأربعاء، في سابقة تُمثّل المرة الأولى التي تنفصل فيها بنية وحدة معالجة الموترات إلى شريحتَين مستقلتَين للتدريب وعمليات الاستدلال.
صُمِّم TPU 8t خصيصاً لتدريب نماذج الذكاء الاصطناعي، في حين يركز نظيره TPU 8i حصرياً على الاستدلال—أي عملية نشر النماذج المدرَّبة في التطبيقات الواقعية. وقد تولّت Broadcom دور شريك التطوير المشترك، في امتداد لتعاون استمر أكثر من عشر سنوات.
Alphabet Inc., GOOGL
يمثّل هذا تحولاً استراتيجياً عن المقاربات السابقة. إذ كانت إصدارات TPU السابقة تجمع بين قدرات التدريب والاستدلال في معالج واحد. وتعزو Google هذا التغيير إلى ظهور أنظمة الذكاء الاصطناعي العاملة بشكل تلقائي—وهي نماذج مستقلة تعمل في حلقات تغذية راجعة مستمرة بأدنى قدر من الإشراف البشري—التي تستلزم شرائح سيليكون مصمَّمة لأغراض محددة.
يتضمن TPU 8i الموجَّه نحو الاستدلال 384 ميغابايت من ذاكرة SRAM لكل معالج—أي ثلاثة أضعاف سعة Ironwood. ووفقاً لـ Google، يُزيل هذا التحسين المعماري اختناق "غرفة الانتظار"، مما يُقلل من ارتفاعات التأخير التي تحدث عندما يستعلم مستخدمون متعددون من نموذج ما في وقت واحد.
مقارنةً بـ Ironwood، يحقق TPU 8i كفاءةً أفضل في التكلفة بنسبة 80%. وبالمعنى التشغيلي، تستطيع المؤسسات استيعاب ما يقارب ضعف الطلب من المستخدمين دون زيادة ميزانيتها.
تُظهر الشريحة أيضاً تحسناً في كفاءة الطاقة يصل إلى 2x لكل واط، وذلك بفضل تقنية إدارة الطاقة الديناميكية التي تُعدِّل استهلاك الطاقة بناءً على متطلبات أعباء العمل في الوقت الفعلي.
ولأول مرة، يستخدم كلا المعالجَين وحدة المعالجة المركزية Axion من Google كمعالج مضيف، مما يتيح التحسين على مستوى بنية النظام بدلاً من قصر التحسينات على أداء الشريحة الفردية.
فيما يتعلق بقدرات التدريب، يدعم تكوين TPU 8t superpod مجموعات تضم ما يصل إلى 9,600 معالج مع ذاكرة عالية النطاق الترددي بسعة 2 بيتابايت. يمثّل هذا ضعف عرض النطاق الترددي للاتصال بين الشرائح مقارنةً بـ Ironwood، وتدّعي Google أنه يستطيع ضغط جداول تطوير النماذج المتطورة من أشهر إلى أسابيع قليلة فحسب.
يوفر معالج التدريب أداءً حسابياً يبلغ 2.8 ضعف بنية Ironwood من الجيل السابع عند نفس نقطة السعر.
يكتسب التبنّي المبكر زخماً متنامياً. طوّرت Citadel Securities منصات بحث كمي باستخدام بنية TPU التحتية من Google. وتُشغّل جميع المختبرات الوطنية السبعة عشر التابعة لوزارة الطاقة الأمريكية تطبيقات العالم المساعد للذكاء الاصطناعي على هذه المعالجات. وقد قطعت Anthropic التزامات باستخدام سعة حوسبية بغيغاواتات متعددة من وحدات TPU الخاصة بـ Google.
توقّع محللون في DA Davidson في سبتمبر أن قسم TPU في Google، حين يُدمج مع Google DeepMind، قد يُقدَّر بتقييم يقترب من 900 مليار دولار.
تحافظ Google على نموذج توزيع حصري لوحدات TPU—إذ لا تتوفر للشراء المباشر ولا يمكن الوصول إليها إلا عبر خدمات Google Cloud. وتواصل Nvidia تزويد Google بأجهزة GPU، وأكدت الشركة أنها ستكون من بين مزوّدي الخدمات السحابية الأوائل الذين يقدمون منصة Vera Rubin القادمة من Nvidia عند إطلاقها في وقت لاحق من هذا العام.
جرى تطوير المعالجات بالتعاون الوثيق مع Google DeepMind، التي وظّفتها لتدريب نماذج اللغة Gemini وتحسين الخوارزميات التي تُشغّل منصتَي Search وYouTube.
أعلنت Google أن كلاً من TPU 8t وTPU 8i سيصلان إلى التوافر العام لعملاء المنصة السحابية في وقت لاحق من عام 2025.
The post Alphabet (GOOGL) Unveils Dual-Purpose 8th-Gen TPU Chips Developed With Broadcom appeared first on Blockonomi.


