AMD aposta em eficiência para liderar corrida da IA nos data centers

Durante o Advancing AI 2025, evento que reuniu especialistas e líderes do setor em San Jose (EUA) para apresentar as novidades da AMD em tecnologias para Inteligência Artificial e data centers, a empresa detalhou sua estratégia com foco em eficiência, flexibilidade e inovação.

Andrew Dieckman, vice-presidente corporativo e gerente geral da divisão de Data Center GPU da AMD, falou sobre as gerações de chips, tendências de resfriamento e a importância da economia de tokens para a operação de IA.

Estratégia da AMD para GPUs

Dieckman explicou que a AMD mantém no mercado várias gerações de GPUs aceleradoras de IA, como a MI-300, MI-325 e MI-350, para atender clientes com diferentes demandas e estágios de adoção da tecnologia.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

“Temos diferentes perfis de clientes. Alguns ainda usam MI-300X, enquanto outros já avançam com a MI-325 e se preparam para a MI-350. Nosso papel é oferecer opções que façam sentido para cada negócio”, afirmou.

Essa estratégia permite que empresas com orçamentos e cargas de trabalho variadas escolham a GPU ideal, sem perder flexibilidade nem performance.

Resfriamento líquido: tendência em data centers para maior eficiência

Sobre o resfriamento de data centers, a AMD observa uma migração crescente para o liquid cooling (resfriamento líquido), que traz mais eficiência energética e redução de custos a longo prazo.

“Muitos novos data centers já são construídos com resfriamento líquido direto, e também vemos retrofits em instalações antigas. Isso acontece porque o liquid cooling oferece melhor custo-benefício para nossos clientes”, explicou Dieckman.

Veja só isso!  Nuuvem tem jogos da Steam para PC com até 95% OFF

Apesar disso, soluções de resfriamento a ar ainda são usadas em muitas infraestruturas existentes, mas o futuro aponta para uma adoção cada vez maior de sistemas líquidos.

Economia de tokens: como otimizar custos na operação de IA

Um dos pontos mais importantes na adoção de IA, segundo Dieckman, é a economia de tokens, ou seja, a redução do custo para gerar resultados em modelos de linguagem e aprendizado de máquina.

“Conseguimos oferecer 30% a 40% mais tokens por dólar investido, e isso faz toda a diferença na competitividade do cliente. A operação de IA só é sustentável se esse custo estiver otimizado”, destacou.

Essa eficiência é alcançada graças à integração do hardware com melhorias contínuas no software, permitindo até 2 ou 3 vezes mais performance no mesmo equipamento.

Produção nos EUA e diversificação da cadeia produtiva

Questionado sobre a produção nos Estados Unidos, Andrew Dieckman revelou que a AMD está investindo em aumentar a fabricação local para garantir resiliência e diversificação da cadeia, embora ainda não tenha anunciado fábricas específicas.

“Estamos explorando a produção nos EUA. É uma direção estratégica importante para nós”, afirmou.

A diversificação busca diminuir a dependência da cadeia global, especialmente em relação a Taiwan, tradicional polo da indústria de semicondutores.

O AMD Advancing AI acontece em San Jose, Califórnia (EUA), nesta quinta-feira (12). O Canaltech viajou para o evento a convite da AMD.

Saiba mais: 

Leia a matéria no Canaltech.

Olá👋, junte-se aos Smarters, já somos mais de 10 mil pessoas!

Inscreva-se para receber conteúdos em primeira mão, assim que disponível no site ou canal.

Não fazemos spam! Leia nossa política de privacidade para mais informações.

By Elias de Mello

Sou Elias de Mello criador do canal 2beSmart busco trazer conteúdos de qualidade para meu público, com testes das mais variadas compras que faço.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

RSS
YouTube
YouTube
Instagram
Tiktok