OpenAI protege memória e centros na Coreia com Samsung e SK Hynix

Última atualização: 06/10/2025

  • Memorandos para fortalecer o fornecimento de memória avançada e avaliar centros de dados de IA na Coreia do Sul.
  • Meta de 900.000 wafers DRAM por mês, cerca de 39% da capacidade global estimada.
  • A Stargate é apoiada por parceiros como SoftBank, Oracle e MGX com um plano de US$ 500.000 bilhões.
  • Forte reação do mercado de ações e foco na HBM; analistas preveem um impulso na cadeia de suprimentos.

A capital sul-coreana tem sido palco de uma ronda de reuniões em que OpenAI, Samsung e SK Hynix alinharam interesses para sua mega-iniciativa de data center, conhecida como Stargate.Nestes contactos foi traçado por escrito um objectivo que se destaca pela sua magnitude: produzir até 900.000 wafers DRAM por mês e fortalecer a construção de infraestrutura de IA no país.

As partes descrevem o pacote como uma combinação de acordos preliminares de fornecimento de memória e novas avaliações de locais. A mensagem é clara: A Coreia do Sul pretende se estabelecer entre os líderes em inteligência artificial.enquanto OpenAI busca garantir capacidade industrial e energética para seus próximos modelos.

Uma meta de produção que pode sobrecarregar a cadeia de memória

Projeto OpenAI Samsung SK Hynix Stargate

Os wafers são discos de silício nos quais são fabricados chips; de cada um, numerosos circuitos que acabam sendo módulos DRAM de alto desempenho ou pilhas HBM para servidores e data centers.

Conteúdo exclusivo - Clique aqui  Como identificar os componentes de um computador usando o CPU-Z?

O conjunto de barras contrasta com o mercado atual. Estimativas da indústria colocam a capacidade global de wafers DRAM de 300 mm em cerca de 2,07 milhões por mês até 2024., com um subir para 2,25 milhões em 2025Chegar a 900.000 seria equivalente a cerca de 39% de toda essa capacidade, uma escala que nenhum fabricante cobre individualmente e que ilustra a ambição do plano.

A diferença entre inferência e treinamento ajuda a entender a figura. Para trem modelos de nova geração Milhares de aceleradores são agrupados, cada um acompanhado por grandes quantidades de memória rápida, bem como sistemas de refrigeração e energia elétrica em larga escala. Portanto, Garantir o fornecimento de wafers não parece excessivo, mas sim uma exigência para a próxima onda de modelos.

Ao mesmo tempo, a indústria salienta que A demanda ligada ao Stargate pode exceder em muito a capacidade global atual da HBM., fortalecendo a liderança dos grandes produtores e incentivando toda a cadeia de valor a investir.

Memorandos, atores envolvidos e novos centros na Coreia

Portal Estelar OpenAI

Os documentos assinados incluem Compromissos iniciais para expandir a produção de memória e avaliar nova infraestrutura na Coreia do SulNesse sentido, a Samsung SDS participaria do desenvolvimento do data center, enquanto a Samsung C&T e a Samsung Heavy Industries estudariam o projeto e a construção. O Ministério da Ciência e Tecnologia da Informação e Comunicação (TIC) está considerando locais fora da área metropolitana de Seul, e a SK Telecom concordou em analisar um local no sudoeste do país.

Conteúdo exclusivo - Clique aqui  Tipos de memória de PC e suas características

Paralelamente, ambas as empresas estão a ponderar a integração ChatGPT Enterprise e recursos de API em suas operações para otimizar fluxos de trabalho e impulsionar inovação interna.

El O projeto Stargate é apoiado por uma aliança com a SoftBank, a Oracle e a empresa de investimentos MGX., que contempla a atribuição 500.000 bilhões de dólares até 2029 Infraestrutura de IA, com foco nos Estados Unidos e efeitos colaterais em ecossistemas como o da Coreia do Sul.

Vale ressaltar que se trata, por enquanto, de cartas de intenções e memorandos: a ambição é alta, mas Os principais detalhes ainda precisam ser finalizadosOs riscos não são insignificantes: potenciais gargalos de HBM/DRAM, requisitos de energia de vários gigawatts, licenciamento e coordenação de projetos com várias partes interessadas.

A força computacional e a mudança estratégica da OpenAI

Ecossistema e alianças de IA

A OpenAI vem forjando alianças para aumentar sua capacidade computacional. Com a Oracle e a SoftBank, está preparando diversos data centers de grande porte que contribuiriam gigawatts de potência, enquanto a NVIDIA anunciou investimentos de até US$ 100.000 bilhões e acesso a mais de 10 GW por meio de seus sistemas de treinamento.

A relação com a Microsoft foi decisiva: desembolsos iniciais de 1.000 bilhão e subsequentes de 10.000 bilhões deram acesso ao Azure, chave para modelos de treinamento que impulsionou o surgimento do ChatGPT. Agora, a OpenAI está migrando para infraestruturas com maior controle direto para reduzir a dependência de um único provedor.

Conteúdo exclusivo - Clique aqui  Como instalar um SSD em um gabinete torre

O ecossistema sul-coreano também está explorando novas fórmulas com OpenAI, desde colaborações de design até conceitos como data centers flutuantes, com o objetivo de acelerar a implementação de infraestruturas resilientes e eficientes.

O mercado reagiu com aumentos significativos após os anúncios: A Samsung subiu cerca de 4%-5% para máximas de vários anosenquanto A SK Hynix se recuperou quase 10% e o índice KOSPI ultrapassou 3.500 pontos pela primeira vez. tempo. Juntos, os movimentos adicionaram dezenas de bilhões à sua capitalização.

Analistas da indústria acreditam que A iniciativa do Stargate dissiparia os receios de uma queda iminente de preços na memória da HBM e poderia atuar como um catalisador para fornecedores de equipamentos como a ASML, dada a alta demanda por chips de memória avançados.

O panorama que se abre combina ambição industrial e prudência operacionalOs memorandos descrevem um roteiro que, se implementado, garantiria à OpenAI uma grande quantidade de memória e novas instalações na Coreia do Sul, enquanto a Samsung e a SK Hynix fortaleceriam seu papel na corrida global da IA, tudo isso dependendo de como a capacidade de produção, a energia disponível e o ritmo regulatório evoluem.

DeepSeek V3.2-Exp
Artigo relacionado:
DeepSeek acelera: menor custo, mais contexto e um rival desajeitado para OpenAI