OpenAI nutzt Google TPU-Chips, um seine KI mit Strom zu versorgen und Kosten zu senken

Letzte Aktualisierung: 30/06/2025

  • OpenAI hat begonnen, Google Cloud TPU-Chips zu verwenden, um einige seiner ChatGPT-Infrastrukturen und andere KI-Modelle zu betreiben.
  • Das Hauptziel besteht darin, die Inferenzkosten zu senken und angesichts der wachsenden weltweiten Nachfrage und der hohen Preise für NVIDIA-GPUs die Hardwarelieferanten zu diversifizieren.
  • Google bietet seine TPUs nur in begrenztem Umfang an und reserviert die fortschrittlichsten Modelle für interne Projekte, hat jedoch sein Portfolio an externen Kunden erweitert, darunter Unternehmen wie Apple, Anthropic und OpenAI.
  • Die Entscheidung von OpenAI stellt einen strategischen Schritt im harten Technologiewettbewerb dar und betrifft sowohl den Markt für KI-Hardware als auch für Cloud-Dienste, mit direkten Auswirkungen auf Giganten wie Microsoft und Oracle.

OpenAI Google TPU KI-Chips

Die Landschaft der künstlichen Intelligenz erlebt eine unerwartete Wendung mit der Entscheidung von OpenAI, die Von Google entwickelte TPU-Chips in der Infrastruktur, die ChatGPT und verschiedene damit verbundene Dienste antreibt. Bisher konzentrierte sich OpenAI bei seinem technologischen Engagement fast ausschließlich auf leistungsstarke NVIDIA-GPUs, aber der wachsende Kostendruck und die starke Nachfrage nach Ressourcen haben dazu geführt, dass Öffnung für Alternativen im KI-Hardwaremarkt.

Die von Quellen wie Reuters und The Information verbreitete Nachricht bestätigt, dass OpenAI least Google Cloud-Chips hauptsächlich für Aufgaben der Inferenz, also der Prozess, bei dem KI-Modelle Antworten aus bereits nach dem Training erlernten Daten generieren. Dieser Schritt markiert Zum ersten Mal hat OpenAI andere Chips als NVIDIAs verwendet bei seinen Großoperationen.

Exklusiver Inhalt – Klicken Sie hier  So überspringen Sie Zeilen in Google Sheets

Warum sollten Sie sich für Google TPU-Chips entscheiden?

OpenAI und Google Cloud

Auslöser für diesen Wandel istvor allem die Kosten für die Skalierung von KI-Modellen so anspruchsvoll wie ChatGPT, insbesondere in einer Zeit, in der die Preise für NVIDIA-GPUs aufgrund der extrem hohen weltweiten Nachfrage ständig steigen. Google TPUs, speziell für maschinelle Lernaufgaben entwickelt, werden als kostengünstigere Option für die Ausführung komplexer Modelle in Echtzeit und die Bewältigung der explosionsartigen Zunahme an Benutzern präsentiert, die die generative künstliche Intelligenz erlebt.

Den veröffentlichten Informationen zufolge hofft OpenAI, dass dieser Schritt Ressourcen sparen in der Inferenzphase, die teuerste und kritischste für die Aufrechterhaltung der Reaktionsflexibilität von Anwendungen wie ChatGPT. Verschiedene Branchenakteure, darunter Apple, Anthropic und Safe Superintelligence haben ebenfalls damit begonnen, TPUs in ihre eigenen Projekte zu integrieren., was auf einen klaren Trend zur Suche nach Alternativen zur ausschließlichen Abhängigkeit von NVIDIA.

TSMC
Verwandte Artikel:
Warum Unternehmen von TSMC abhängig sind und wie es den Markt dominiert hat

Auswirkungen auf den Sektor und Einschränkungen des Abkommens

TPU OpenAI Google

Diese Entscheidung führt OpenAI dazu, seine Lieferanten diversifizieren Abgesehen von Microsoft und Oracle, die bisher dank ihrer riesigen Bestände an NVIDIA-GPUs den Großteil der Rechenleistung lieferten, hat Google seine Infrastruktur zwar für externe Firmen geöffnet, verfolgt eine restriktive Politik und bietet OpenAI seine fortschrittlichsten TPU-Modelle nicht anund sichert sich so einen strategischen Vorteil für seine eigenen vorrangigen Projekte und Kunden.

Exklusiver Inhalt – Klicken Sie hier  So verwenden Sie Realitätserweiterungen in Fortnite

Die neue Dynamik impliziert auch ein Hinweis für Microsoft, der Hauptinvestor und Technologiepartner von OpenAI, als Teil der KI-Workload verlagert sich nun zum direkten Konkurrenten von Azure: Googles Cloud. Darüber hinaus bringt die Bewegung die komplexe Mischung aus Zusammenarbeit und Wettbewerb Dies kennzeichnet die Beziehungen in der heutigen technologischen Welt, in der rivalisierende Giganten bei Bedarf zu zufälligen Partnern werden können.

Andererseits hat Google durch seine Strategie, seine TPUs im Ausland zu vermarkten, die Positionierung als einer der wichtigsten Anbieter kritischer Infrastruktur für die nächste Generation KI-gestützter Dienste und Anwendungen. Das Kundenportfolio hat sich in den letzten Monaten deutlich erweitert.und festigt dank Plattformen wie Gemini sein Engagement sowohl für Hardware als auch für Software.

Ein Aufwärtstrend bei der Diversifizierung von KI-Hardware

OpenAI Google KI-Hardware

Bis vor kurzem galt OpenAI als einer der größten Abnehmer von NVIDIA-GPUs, was ihm einen bevorzugten Zugang und eine dominante Position bei der Entwicklung neuer Modelle garantierte. Die globaler Wettbewerb um Rechenressourcen hat uns gezwungen, nach Alternativen zu suchenDer Chipmangel und die fortschreitenden Kostensteigerungen pro Einheit haben viele KI-Unternehmen dazu veranlasst, sich nach anderen Lieferanten umzusehen. Darunter Google, das über enorme Cloud-Kapazitäten für diese Zwecke verfügt.

Exklusiver Inhalt – Klicken Sie hier  Alles, was Sie über die neue Xbox Ally X wissen müssen: Der Laptop von Microsoft und ASUS, der das Gaming revolutionieren soll

Derzeit ist die Frage der Spezialhardware für KI ist zu einem strategischen und hochrangigen Thema für die Branche geworden. Der Erfolg von OpenAI bei der Bildgenerierung oder die Einführung fortschrittlicherer Modelle wie GPT-4.1 haben die Nachfrage auf ein beispielloses Niveau gesteigert und ähnliche Entwicklungen bei großen Technologieunternehmen ausgelöst. So ist die Bedeutung der Diversifizierung und Sicherung alternativer Versorgungswege ist zu einer Priorität geworden, um Skalierbarkeit und Innovation in diesem Sektor aufrechtzuerhalten.

Der Einstieg von Google in dieses Feld, durch die Vermietung seiner TPUs über Google Cloud, zeigt, dass die Gemischte Kollaborationsmodelle und Wettbewerb um Hardware wird in den kommenden Jahren die Norm sein.

Die Strategie von OpenAI, Googles TPU-Chips zu integrieren, zeigt, wie wirtschaftlicher und operativer Druck Allianzen neu definieren, Lieferantenwechsel erzwingen und neuen Akteuren den Weg ebnen kann – selbst in einem Sektor, der bislang von NVIDIA dominiert wurde. Der Markt beobachtet die Entwicklung aufmerksam. Wie sich diese Beziehungen weiterentwickeln werden und ob diese Diversifizierung einen Wendepunkt in der Entwicklung moderner künstlicher Intelligenz markieren wird..

G5 Spanner
Verwandte Artikel:
Google setzt bei der Herstellung der Tensor G5-Chips für das Pixel 10 auf TSMC und stellt damit Samsung bloß.