Google bringt Trillium-Chip auf den Markt und verbessert das KI-Rechenzentrum

trillium-tpu
Übersetzen von : Google lancerer Trillium-chip, forbedrer AI-datacenter
Google bringt Trillium auf den Markt, einen KI-Rechenzentrumschip, der fast fünfmal schneller ist als seine Vorgängerversion. Ab Ende 2024 für Cloud-Kunden verfügbar.

Die Google-Muttergesellschaft Alphabet hat gerade ein Produkt namens Trillium in ihrer Chipfamilie für Rechenzentren mit künstlicher Intelligenz vorgestellt, das nach Angaben des Unternehmens fast fünfmal schneller ist als seine Vorgängerversion. „Die Nachfrage der Industrie nach Computern für maschinelles Lernen ist in den letzten sechs Jahren um den Faktor 1 Million gestiegen und hat sich jedes Jahr etwa verzehnfacht“, sagte Alphabet-CEO Sundar Pichai während eines Informationsgesprächs mit Reportern. „Ich denke, Google wurde für diesen Moment geschaffen; wir sind seit mehr als einem Jahrzehnt Pioniere bei (KI-Chips).“

Die Bemühungen von Alphabet, maßgeschneiderte Chips für KI-Rechenzentren zu bauen, stellen eine der wenigen realisierbaren Alternativen zu Nvidias Spitzenprozessoren dar, die den Markt dominieren. Zusammen mit der Software, die eng mit den Tensorprozessoreinheiten (TPUs) von Google verknüpft ist, haben diese Chips es dem Unternehmen ermöglicht, erhebliche Marktanteile zu gewinnen.

Nvidia hält derzeit etwa 80 % des Marktes für KI-Rechenzentrumschips, die restlichen 20 % entfallen hauptsächlich auf verschiedene Versionen von Googles TPUs. Google verkauft die Chips nicht direkt, sondern mietet den Zugriff darauf über seine Cloud-Computing-Plattform. Laut Google wird der Trillium-Chip der sechsten Generation eine 4,7-mal bessere Rechenleistung im Vergleich zum TPU v5e erreichen.

Der Trillium-Prozessor ist 67 % energieeffizienter als der v5e. Der neue Chip werde „Ende 2024“ für Googles Cloud-Kunden verfügbar sein, teilte das Unternehmen mit. Die Google-Ingenieure erzielten weitere Leistungsverbesserungen, indem sie die Speicherkapazität und die Gesamtbandbreite erhöhten.

KI-Modelle erfordern große Mengen an High-End-Speicher, was ein Engpass bei der weiteren Leistungssteigerung darstellt. Das Unternehmen hat die Chips so konzipiert, dass sie in Einheiten von 256 Chips implementiert werden können, die auf Hunderte von Einheiten skaliert werden können.

Our Partners