- Os novos aceleradores Instinct MI350 da AMD oferecem desempenho de inferência até 35x mais rápido e melhoram significativamente a eficiência de energia.
- A infraestrutura de IA em escala de rack com processadores MI350 e EPYC já está sendo implantada em nuvens de hiperescala como a Oracle Cloud Infrastructure.
- Avanço de software: o ROCm 7 otimiza o desenvolvimento de IA e agora está disponível junto com a plataforma global AMD Developer Cloud.
- Colaborações com Meta, OpenAI, Microsoft e outras empresas líderes fortalecem a liderança da AMD no ecossistema de IA aberta.
A AMD apresentou seus novos aceleradores Instinct MI350, com o objetivo de marcar um antes e um depois no setor de inteligência artificial generativa e computação avançada. A empresa, durante o evento Advancing AI 2025, deixou claro seu objetivo de se consolidar como referência em desempenho, eficiência e escalabilidade para as aplicações de IA mais exigentes. A estratégia, baseada em tecnologias e padrões abertos, Ela também busca facilitar a integração de hardware e software por meio da colaboração com vários líderes industriais..
Con estos lanzamientos, A AMD pretende ser um ator-chave na criação de ecossistemas de IA abertos e robustos, capaz de responder ao crescimento exponencial de modelos e algoritmos de linguagem de última geração. O desafio é combinar aceleradores de alto nível, processadores potentes e uma pilha de software otimizada, promovendo a democratização de soluções de inteligência artificial tanto para grandes empresas quanto para desenvolvedores independentes.
Chega o Instinct MI350: um salto em desempenho e eficiência

A nova série Instinct MI350, composta por GPU MI350X e MI355X, promete quadruplicar o poder computacional em tarefas de inteligência artificial em comparação com a geração anterior. Quando se trata de inferências de IA, o salto é ainda mais significativo, atingindo até 35 vezes o desempenho anterior. O modelo MI355X também se destaca em termos de relação qualidade-preço, permitindo obter até 40% mais tokens para cada dólar investido comparado aos concorrentes.
Para atender às necessidades das cargas de trabalho mais complexas, O Instinct MI350 integra 288 GB de memória HBM3E (fornecido pela Micron e Samsung) e oferecem uma largura de banda de até 8 TB/sEstão disponíveis opções de resfriamento a ar e líquido, permitindo a instalação de até 64 GPUs em um rack tradicional ou o dobro disso em configurações de resfriamento líquido direto. Os números de desempenho chegam a 2,6 exaFLOPS em operações FP4/FP6.
Infraestrutura abrangente e escalabilidade: a proposta “Helios”

Um dos principais focos é o infraestrutura em escala de rack aberto, Já em execução em grandes nuvens, como a Oracle Cloud Infrastructure. Esta solução, que estará disponível no segundo semestre de 2025, combina aceleradores Instinct MI350 com processadores AMD EPYC de quinta geração e placas de rede Pensando Pollara.
Olhando para o futuro, a AMD apresentou o "Helios", seus racks de IA de próxima geração, que integrarão GPUs Instinct MI400, processadores EPYC "Venice" com arquitetura Zen 6 e placas de rede Pensando "Vulcan". O aumento de desempenho na execução de modelos de IA deve ser Mixture of Experts poderia ser até 10 vezes maior que a geração atual.
E na seção de software, AMD lança ROCm 7, uma versão reformulada, projetada para enfrentar os desafios da IA generativa e da computação de alto desempenho. Esta atualização inclui melhorias para suporte para estruturas padrão, novas APIs, drivers e ferramentas, expandindo opções para desenvolvedores.
Além disso, a plataforma AMD Developer Cloud já está disponível globalmente, oferecendo um ambiente gerenciado para desenvolvimento ágil de projetos de IA e acesso a recursos avançados.
Aumentando a eficiência energética e a sustentabilidade
Um aspecto que a AMD destacou é o otimização de energia. Os aceleradores MI350 superaram em muito as metas internas, alcançando melhorias de eficiência energética de até 38 vezes em um período de cinco anos. A empresa também pretende aumentar a eficiência energética em escala de racks até 2030 em um fator de 20 em comparação com 2024, o que facilitaria o treinamento de modelos de IA que atualmente exigem centenas de racks em apenas um. reduzindo o consumo de eletricidade em 95%.
As alianças estratégicas são um pilar para a AMD, com empresas como Meta, OpenAI, Microsoft, Oracle, Cohere, Red Hat, HUMAIN, Astera Labs, Marvell e xAI demonstrando grande confiança em sua tecnologia. A Meta já utiliza a série MI300X em modelos de inferência como Llama 3 e 4; a OpenAI está trabalhando em estreita colaboração com a AMD para integrar hardware e software em sua infraestrutura de IA; e a Microsoft já está executando modelos de produção no Azure com a plataforma Instinct.
OráculoPor sua vez, planeja implantar até 131.072 GPUs MI355X para escalar seus clusters zettascale, fortalecendo o ecossistema de parceiros que impulsiona a adoção e o desenvolvimento de soluções de IA.
A visão da AMD não se concentra apenas em velocidade e potência, mas também em sustentabilidade, abertura tecnológica e construção de parcerias fortes para acelerar o avanço da inteligência artificial globalmente.
Sou um entusiasta da tecnologia que transformou seus interesses “geek” em profissão. Passei mais de 10 anos da minha vida usando tecnologia de ponta e mexendo em todos os tipos de programas por pura curiosidade. Agora me especializei em informática e videogames. Isto porque há mais de 5 anos escrevo para diversos sites sobre tecnologia e videojogos, criando artigos que procuram dar-lhe a informação que necessita numa linguagem compreensível para todos.
Se você tiver alguma dúvida, meu conhecimento vai desde tudo relacionado ao sistema operacional Windows até Android para celulares. E meu compromisso é com você, estou sempre disposto a dedicar alguns minutos e te ajudar a resolver qualquer dúvida que você possa ter nesse mundo da internet.
