AMD anuncia ROCm 7 com melhorias de performance e pacote completo para IA

Nesta quinta-feira (12),durante o Advancing AI 2025 em San Jose (EUA), a AMD anunciou uma nova leva de recursos e plataformas voltados a aplicações de Inteligência Artificial. A empresa apresentou o ROCm 7, nova versão de sua plataforma de software open source, além de soluções em nuvem, suporte oficial ao Windows, execução local em notebooks e ferramentas para empresas treinarem e rodarem modelos de IA com mais eficiência e liberdade.

“Nossa estratégia é clara: acelerar a inovação com base em código aberto, escuta ativa dos desenvolvedores e parcerias com a comunidade global”, afirmou Ramine Roane, vice-presidente corporativo de IA da AMD

Foco em performance e escalabilidade


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Rodando em GPUs MI300X, o ROCm 7 registrou até 3,5 vezes mais performance em tarefas de inferência e até 9 vezes mais velocidade em treinamento, segundo dados compartilhados pela AMD.

Modelos populares como LLaMA, Qwen e DeepSeek R1 foram testados e demonstraram ganhos expressivos de desempenho com a nova versão da plataforma. A empresa também ampliou o suporte a diferentes formatos numéricos de ponto flutuante como FP8, FP4 e datatypes mistos e a técnicas de quantização, com foco em eficiência energética e redução de custo computacional.

Nuvem gratuita e execução local em notebooks

A AMD também lançou o DevCloud, sua nova plataforma em nuvem para desenvolvedores, que oferece 25 horas gratuitas para testes. Pelo navegador, os usuários podem acessar o Jupyter Notebook, uma ferramenta prática que permite escrever e executar códigos de Inteligência Artificial em ambientes prontos, usando o hardware da AMD sem precisar instalar nada no computador.

Veja só isso!  Carro elétrico mais vendido do Brasil leva BYD e BMW à Justiça

“Estamos facilitando como nunca o acesso ao nosso ecossistema”, disse Roane. “Você pode testar modelos direto no navegador, sem precisar configurar nada, ou então rodar o mesmo código no seu próprio notebook com GPU da AMD.”

O executivo também se referia à expansão da compatibilidade do ROCm: pela primeira vez, a plataforma terá suporte oficial para Windows, com instalação direta (via “inbox”) nas distribuições. Além disso, será possível executar localmente modelos com até 24 bilhões de parâmetros em workstations e notebooks com chips AMD.

Solução corporativa pronta para IA generativa

Pensando no mercado corporativo, a AMD apresentou o ROCm AI Enterprise, uma plataforma voltada a empresas que desejam treinar e utilizar modelos de linguagem diretamente em seus próprios servidores ou computadores. A solução inclui:

  • Instalação rápida de servidores em rede (clusters);
  • Ferramentas para gerenciar esses sistemas com mais eficiência (como Kubernetes e Slurm);
  • Possibilidade de personalizar modelos com os dados da própria empresa (processo conhecido como fine-tuning);
  • Integração com outras plataformas corporativas, como o Red Hat OpenShift AI.

“Empresas não querem esperar meses para rodar um modelo personalizado com seus próprios dados. Elas querem começar agora, com segurança e eficiência”, explicou Roane. “Essa solução é exatamente para isso.”

Inferência distribuída com LLMD

Um dos pontos técnicos mais comentados foi a nova estrutura de inferência distribuída, batizada de LLMD (Large Language Model Distributed). Inspirada em abordagens como o Dynamo da NVIDIA, a solução divide o trabalho entre GPUs especializadas em tarefas distintas, como prefill e decode, otimizando o fluxo de geração de tokens e aumentando drasticamente a velocidade de inferência.

De acordo com Roane, “essa arquitetura permite gerar mais tokens por segundo, com muito menos custo de comunicação entre as GPUs. E o melhor: tudo isso usando software open source.”

Veja só isso!  Apple vai lançar novos fones de ouvido feitos para Android; conheça

Ferramentas para desenvolvedores e comunidade global

Para facilitar o uso da plataforma, a AMD também lançou o ROCm AI Developer Hub, um portal gratuito e sem necessidade de login que reúne:

  • Tutoriais interativos;
  • Exemplos de código com Docker;
  • Vídeos explicativos;
  • Integração com frameworks populares como PyTorch, Triton, JAX, Hugging Face e SGLang.

A empresa também está investindo fortemente na comunidade com hackathons, concursos técnicos e meetups semanais. Durante a palestra, Roane compartilhou a história de um estudante do ensino médio que ficou entre os 20 melhores em uma competição de otimização de kernel usando o OpenAI Triton.

“Temos centenas de pessoas otimizando nossos kernels por meio da comunidade. Isso é algo que uma abordagem fechada nunca conseguiria replicar”, destacou o executivo.

Com todos esses anúncios, a AMD deixa claro que quer ocupar um papel mais central no ecossistema de IA, apostando em uma plataforma aberta, acessível e alinhada com as necessidades reais de desenvolvedores e empresas. A nova fase do ROCm representa um passo decisivo na disputa por performance, escalabilidade e liberdade no uso de modelos de linguagem generativa.

“O desenvolvimento em IA precisa ser aberto para todos. É assim que o progresso acontece de verdade”, concluiu Roane.

O AMD Advancing AI acontece em San Jose, Califórnia (EUA), nesta quinta-feira (12). O Canaltech viajou para o evento a convite da AMD.

Saiba mais: 

Leia a matéria no Canaltech.

Olá👋, junte-se aos Smarters, já somos mais de 10 mil pessoas!

Inscreva-se para receber conteúdos em primeira mão, assim que disponível no site ou canal.

Não fazemos spam! Leia nossa política de privacidade para mais informações.

By Elias de Mello

Sou Elias de Mello criador do canal 2beSmart busco trazer conteúdos de qualidade para meu público, com testes das mais variadas compras que faço.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

RSS
YouTube
YouTube
Instagram
Tiktok