Google تكشف عن وحدات Ironwood لمعالجة التنسور (TPU) بأداء أعلى بأربع مرات، وAnthropic تبرم صفقة ضخمة تصل إلى مليون شريحة

Google تكشف عن وحدات Ironwood لمعالجة التنسور (TPU) بأداء أعلى بأربع مرات، وAnthropic تبرم صفقة ضخمة تصل إلى مليون شريحة

في جملة واحدة

وحدات Ironwood لمعالجة التنسور (TPU) الجديدة من Google تحقق قفزة في الأداء بأربع مرات وتدعم صفقة ضخمة تتيح لـ Anthropic الوصول إلى ما يصل إلى مليون شريحة، ما يشير إلى تحوّل الصناعة نحو الاستدلال (inference) واسع النطاق. كما توسّع Google معالجات Axion المعتمدة على Arm، وتطرح برمجيات أذكى، وتوحّد تصاميم مراكز بيانات عالية القدرة والمبرّدة بالسائل ضمن إستراتيجية متكاملة للبنية التحتية للذكاء الاصطناعي (AI).

التفاصيل

قدّمت Google Cloud نظام Ironwood، وهو الجيل السابع من وحدات معالجة التنسور (Tensor Processing Unit - TPU)، ووصفته بأنه أقوى بنية تحتية للذكاء الاصطناعي (AI) لديها حتى الآن، في إشارة إلى تحوّل التركيز في الصناعة من تدريب النماذج (training) إلى تقديمها على نطاق واسع (serving). يوفّر Ironwood أداءً يزيد بأكثر من أربع مرات مقارنةً بالجيل السابق في كلٍ من التدريب والاستدلال (inference)، مع عناقيد (Pods) قادرة على ربط ما يصل إلى 9,216 شريحة عبر شبكة ترابط (interconnect) بسرعة 9.6 تيرابت/ثانية، وذاكرة ذات عرض نطاق ترددي عالٍ (High-Bandwidth Memory - HBM) مشتركة بسعة 1.77 بيتابايت. تستخدم المنصّة تبديل الدوائر الضوئية (optical circuit switching) لإعادة التوجيه لتجاوز الأعطال خلال مللي ثوانٍ، مستندةً إلى موثوقية أسطول Google المُبرَّد بالسائل (liquid-cooled) بمستوى إتاحة يناهز 99.999% منذ عام 2020.

كدليل قوي، تخطّط Anthropic للوصول إلى ما يصل إلى مليون وحدة TPU ضمن التزام متعدد السنوات بقيمة عشرات المليارات، مشيرةً إلى ميزة الأداء مقابل السعر (price-performance)، والكفاءة، والحاجة إلى توسيع الاستدلال (inference) بشكل موثوق، ومدعومةً بأكثر من غيغاواط من السعة التي ستدخل الخدمة في عام 2026. إلى جانب Ironwood، أعلنت Google عن توسيع معالجات Axion المعتمدة على Arm (CPU) مع مثيلات N4A التي توفّر حتى ضعف نسبة الأداء إلى السعر مقارنة بآلات x86 الافتراضية (VMs) الحالية، بالإضافة إلى خيارات C4A الجديدة على عتاد مجرد (bare metal). كما طرحت برمجيات تحوّل السيليكون الخام إلى مكاسب عملية: يضيف GKE آلية جدولة واعية بالطوبولوجيا (topology-aware scheduling) لعناقيد TPU، ويوفّر MaxText أدوات تدريب متقدمة، وتقول Google إن بوابة الاستدلال (Inference Gateway) قادرة على خفض زمن الوصول إلى أول رمز (time-to-first-token) بنسبة 96% وتقليل تكاليف تقديم النماذج (serving) بما يصل إلى 30%. على مستوى البنية التحتية، تعمل Google أيضًا على توحيد تصاميم مراكز البيانات عالية القدرة والمبرّدة بالسائل، بما في ذلك اعتماد تغذية ±400 فولت تيار مستمر (VDC) لدعم ما يصل إلى 1 ميغاواط لكل رف.

النقاط الرئيسية

  • وحدات Ironwood لمعالجة التنسور (TPU): أداء أعلى بأربع مرات مقارنة بالجيل السابق، عناقيد (Pods) تضم حتى 9,216 شريحة، شبكة ترابط (interconnect) بسرعة 9.6 تيرابت/ثانية، وذاكرة HBM مشتركة بسعة 1.77 بيتابايت مع تبديل دوائر ضوئية يدعم تجاوز الأعطال بسرعة.
  • التزام Anthropic بالوصول إلى ما يصل إلى مليون وحدة TPU يمثّل رهانًا متعدد السنوات بمليارات الدولارات على سيليكون Google المخصّص لتوسيع الاستدلال (inference) بشكل موثوق.
  • معالجات Axion المعتمدة على Arm توسّع خيارات أحمال العمل العامة: تستهدف مثيلات N4A توفير ضعف نسبة الأداء إلى السعر مقارنة بآلات x86 الافتراضية (VMs) المماثلة؛ وتقدّم C4A عتادًا مجردًا (bare metal) قائمًا على Arm للاحتياجات المتخصصة.
  • طبقة البرمجيات حاسمة: يضيف GKE آلية جدولة واعية بالطوبولوجيا (topology-aware scheduling)؛ ويوفّر MaxText أدوات تدريب متقدمة؛ وتستهدف بوابة الاستدلال (Inference Gateway) خفض زمن الوصول إلى أول رمز بنسبة 96% وتقليل تكاليف تقديم النماذج (serving) بما يصل إلى 30%.
  • التوسع في القدرة والتبريد: تعتمد Google ±400 فولت تيارًا مستمرًا (VDC) والتبريد بالسائل (مطبقًا عبر أكثر من 2,000 عنقود TPU) لدعم ما يصل إلى 1 ميغاواط لكل رف مع تصاعد الطلب على الذكاء الاصطناعي (AI).

المصادر: 1

\