Google ist mit Gemini 3 ein großer Wurf gelungen. Der Erfolg ist so massiv, dass OpenAI nun „Code Red“ ausgerufen hat. Das Unternehmen wird seine Energie in nächster Zeit primär in die Verbesserung des Kernprodukts stecken anstatt in neue Features.
Eine der Besonderheiten von Gemini 3 ist die Hardware-Basis. Es wurde nicht auf Nvidia-GPUs trainiert, sondern auf Googles eigener Technik. Diese TPUs (Tensor Processing Units) gibt es mittlerweile in der Version 7, und Google hat damit offenbar einen echten Trumpf in der Hand.
Der technologische Sprung ist so groß, dass sich Nvidia zu einem recht unsouveränen Tweet veranlasst sah. Zwar ist der einzelne Google-Chip nicht zwingend überlegen, aber er lässt sich exzellent skalieren. Google kann bis zu 9.216 Chips in einem Pod vernetzen. Bei Nvidia sind es in einem Standard-Cluster oft nur 72 Einheiten.
Diese TPUs eignen sich aber nicht nur für das Training neuer Modelle, sondern auch sehr effizient für die Anwendung beziehungsweise Inferenz. Google hat damit eine wesentliche Hürde für die breite Nutzung von AI in der Suche gelöst, nämlich die Kosten je Suchanfrage.
Ich vermute daher, dass der AI-Mode deutlich schneller für viele Suchanfragen zum Standard wird, als wir bislang angenommen haben. Wir sehen bereits jetzt, dass Google die Integration fast wöchentlich stärkt. Das zeigt sich am Ende von AI Overviews als weiterführendes Element, im Chrome-Browser und an vielen weiteren Stellen.
