Das KI-Startup TensorWave ist eines der ersten mit einem öffentlich bereitgestellten Setup, das auf AMD Instinct MI300X KI-Beschleunigern basiert. Laut CEO Jeff Tatarchuk sind diese Beschleuniger eine weitaus bessere Option als NVIDIAs dominierende Hopper H100 AI GPU. TensorWave hat mit dem Bau von KI-Systemen begonnen, die auf dem neuesten KI-Beschleuniger Instinct MI300X von AMD basieren, den das Unternehmen zu einem Bruchteil der Kosten der KI-GPU Hopper H100 von NVIDIA leasen will.
TensorWave plant, noch vor Jahresende 20.000 der neuen Instinct MI300X AI-Beschleuniger von AMD in zwei Werken zu haben, und plant, bis 2025 Flüssigkeitskühlsysteme online zu stellen. Jeff Tatarchuk sagt, AMDs neue Instinct MI300X AI-GPU sei „dominant gegenüber dem H100“. „reine Spezifikationen“ , und er hat nicht unrecht. Dies gilt jedoch für den ursprünglichen H100 mit 40 GB und 80 GB HBM3-Optionen, während ein verbesserter H200 über eine viel größere Kapazität von 141 GB HBM3e-Speicher mit bis zu 4,8 TB/Sek. Speicherbandbreite verfügt.
Aber mit dem Blackwell B200 hat NVIDIA den AI-GPU-Markt mit 192 TB HBM3e bei 8 TB/Sek. Speicherbandbreite im Griff, das könnte sich ändern. AMD verfügt bisher über den meisten VRAM auf einer KI-GPU, während NVIDIA mit dem H100 und 80 GB an seinen Grenzen zurückbleibt, es sei denn, Sie befinden sich in China, mit Zugriff auf H100-96-GB-Modelle und sogar auf den kommenden H200 mit 141 GB HBM3e, aber das ist der Fall nicht einmal so viel und nicht so schnell wie der Instinct MI300X von AMD.
Aber es geht nicht nur um reine Hardware und VRAM für KI-Workloads. Auch die eigentlichen KI-Beschleuniger bzw. KI-GPUs sollen in der Lage sein, die gleiche Leistung wie NVIDIAs dominierende H100-KI-GPUs zu liefern. Laut Tatarchuk herrscht große Begeisterung über die neuen Instinct MI300X-KI-Beschleuniger von AMD als gute Alternative zu NVIDIA, die Kunden seien sich jedoch nicht sicher, ob sie die gleiche Leistung erhalten würden.