OpenAI recurre a los chips TPU de Google para impulsar su IA y reducir costes

Última actualización: 30/06/2025

  • OpenAI ha comenzado a utilizar los chips TPU de Google Cloud para soportar parte de la infraestructura de ChatGPT y otros modelos de IA.
  • El objetivo principal es abaratar costes de inferencia y diversificar los proveedores de hardware ante la creciente demanda global y los elevados precios de las GPU de NVIDIA.
  • Google ofrece sus TPU de manera limitada, reservando sus modelos más avanzados para proyectos internos, pero ha ampliado la cartera de clientes externos, incluyendo a empresas como Apple, Anthropic y OpenAI.
  • La decisión de OpenAI supone un movimiento estratégico en la feroz competencia tecnológica y afecta tanto al mercado de hardware de IA como al de servicios cloud, con impacto directo en gigantes como Microsoft y Oracle.

Chips IA OpenAI Google TPU

El panorama de la inteligencia artificial está viviendo un giro inesperado con la decisión de OpenAI de incorporar los chips TPU diseñados por Google en la infraestructura que da vida a ChatGPT y diversos servicios relacionados. Hasta ahora, OpenAI había centrado su apuesta tecnológica casi exclusivamente en las potentes GPU de NVIDIA, pero la creciente presión por los costes y la fuerte demanda de recursos ha propiciado esta apertura hacia alternativas en el mercado del hardware para IA.

La noticia, recogida por fuentes como Reuters y The Information, confirma que OpenAI está alquilando los chips de Google Cloud principalmente para tareas de inferencia, es decir, el proceso en que los modelos de IA generan respuestas a partir de los datos ya aprendidos tras el entrenamiento. Este paso marca la primera vez que OpenAI utiliza de manera significativa chips distintos a los de NVIDIA en sus operaciones a gran escala.

Contenido exclusivo - Clic Aquí  Cómo aparecer offline en Fortnite

¿Por qué apostar por los chips TPU de Google?

OpenAI y Google Cloud

El detonante de este cambio es, sobre todo, el coste de escalar modelos de IA tan exigentes como ChatGPT, especialmente en una etapa donde los precios de las GPU de NVIDIA no dejan de aumentar por la altísima demanda mundial. Las TPU de Google, diseñadas específicamente para tareas de aprendizaje automático, se presentan como una opción más asumible para ejecutar modelos complejos en tiempo real y gestionar la explosión de usuarios que vive la inteligencia artificial generativa.

Según las informaciones divulgadas, OpenAI espera que este movimiento permita ahorrar recursos en la etapa de inferencia, la más costosa y crítica para mantener la agilidad de respuesta de aplicaciones como ChatGPT. Diversos actores de la industria, incluidos Apple, Anthropic y Safe Superintelligence, también han comenzado a integrar las TPU en sus propios proyectos, lo que indica una tendencia clara de búsqueda de alternativas a la dependencia exclusiva de NVIDIA.

TSMC
Artículo relacionado:
Por qué las empresas dependen de TSMC y cómo ha dominado el mercado

Impactos en el sector y limitaciones del acuerdo

TPU OpenAI Google

Esta decisión lleva a OpenAI a diversificar sus proveedores más allá de Microsoft o Oracle, que hasta ahora le suministraban el grueso de la potencia computacional gracias a sus enormes inventarios de GPU NVIDIA. Aunque Google ha abierto su infraestructura a firmas externas, mantiene una política restrictiva y no ofrece a OpenAI sus modelos TPU más avanzados, reservándose así una ventaja estratégica para sus propios proyectos y clientes prioritarios.

Contenido exclusivo - Clic Aquí  ¿Cómo le mandas un mensaje a alguien en Google Plus

La nueva dinámica también supone un aviso para Microsoft, principal inversor y socio tecnológico de OpenAI, ya que parte de la carga de trabajo en IA pasa ahora a la competencia directa de Azure: la nube de Google. Además, el movimiento pone sobre la mesa la compleja mezcla de colaboración y competencia que caracteriza las relaciones en el mundo tecnológico actual, donde gigantes rivales pueden convertirse en socios circunstanciales si la situación lo requiere.

Por otro lado, la estrategia de Google de comercializar sus TPU hacia el exterior ha permitido posicionarse como uno de los proveedores clave de infraestructura crítica para la próxima generación de servicios y aplicaciones basadas en inteligencia artificial. Su cartera de clientes se ha ampliado de forma notable en los últimos meses, consolidando su apuesta tanto en hardware como en software gracias a plataformas como Gemini.

Una tendencia al alza en la diversificación del hardware IA

OpenAI Google hardware IA

Hasta hace poco, OpenAI aparecía como uno de los mayores compradores de GPU NVIDIA, lo que le garantizaba acceso preferencial y una posición dominante para el desarrollo de nuevos modelos. Sin embargo, la competencia global por recursos computacionales ha obligado a buscar alternativas. La escasez de chips y el aumento progresivo del coste por unidad han llevado a muchas compañías de IA a explorar diferentes proveedores, entre ellos Google, que posee una enorme capacidad en la nube orientada a estos fines.

Contenido exclusivo - Clic Aquí  Cómo agregar calificación de estrellas en Google Sheets

En la actualidad, la cuestión del hardware especializado para IA se ha convertido en un tema estratégico y de primer nivel para la industria. El éxito de OpenAI con la generación de imágenes o el lanzamiento de modelos más avanzados como GPT-4.1 ha incrementado la demanda a niveles sin precedentes, desencadenando también movimientos similares en grandes tecnológicas. Así, la importancia de diversificar y asegurar vías de suministro alternativas se ha vuelto prioritaria para sostener la escalabilidad y la innovación en el sector.

La entrada de Google en este terreno, bajo la fórmula del alquiler de sus TPU a través de Google Cloud, indica que los modelos de colaboración mixtos y la competencia por el hardware serán la norma en los próximos años.

La estrategia de OpenAI de incorporar los chips TPU de Google refleja cómo las presiones económicas y operativas pueden redefinir alianzas, forzar cambios de proveedor y abrir el juego a nuevos actores, incluso en un sector tan dominado hasta ahora por NVIDIA. El mercado observa con atención cómo evolucionarán estas relaciones y si esta diversificación marcará un antes y un después en el desarrollo de la inteligencia artificial moderna.

Tensor G5
Artículo relacionado:
Google apuesta por TSMC para fabricar los chips Tensor G5 del Pixel 10 y deja en evidencia a Samsung

Deja un comentario