terça-feira, abril 7, 2026
Portal Brasil > Tecnologia > Intel destaca desempenho de IA aberto e escalável no MLPerf Inference v6.0

Intel destaca desempenho de IA aberto e escalável no MLPerf Inference v6.0

A Intel apresentou resultados relevantes no MLCommons MLPerf Inference v6.0, reforçando sua estratégia de oferecer soluções abertas e escaláveis para inferência de inteligência artificial.

Os testes evidenciam o desempenho combinado dos novos Intel Xeon 6 e das GPUs Intel Arc Pro B70 e B65, voltados a workloads profissionais em estações de trabalho, data centers e ambientes de edge.

Os benchmarks mostram ganhos consistentes em desempenho e eficiência, além de destacar a importância da integração entre CPU e GPU na execução de modelos modernos de IA, especialmente em aplicações com grande volume de dados.

MLPerf v6.0 destaca evolução em inferência de IA

O MLPerf é uma das principais referências globais para avaliação de desempenho em inteligência artificial. Na versão 6.0, os testes analisaram diferentes cenários de inferência, incluindo cargas de trabalho com modelos de linguagem de grande escala (LLMs).

Segundo a Intel, sistemas equipados com até quatro GPUs Arc Pro B70/B65 alcançam 128 GB de VRAM combinada, possibilitando a execução de modelos com até 120 bilhões de parâmetros com alta simultaneidade.

Além disso, a Arc Pro B70 apresentou:

  • Até 1,8x mais desempenho em relação à geração anterior (B60)
  • Ganhos de até 1,18x via otimizações de software na mesma base de hardware
  • Melhor eficiência em cargas multi-GPU

Plataforma aberta e escalável para IA

Um dos diferenciais da abordagem da Intel está na utilização de uma stack aberta e containerizada, voltada principalmente para ambientes Linux. Essa arquitetura permite escalar workloads de forma eficiente, desde um único nó até infraestruturas corporativas completas.

Entre os principais recursos da plataforma estão:

  • Suporte a múltiplas GPUs com comunicação PCIe P2P
  • ECC para maior confiabilidade de dados
  • SR-IOV para virtualização de recursos
  • Telemetria avançada e atualizações remotas de firmware

A proposta é simplificar a adoção de IA em empresas, reduzindo custos e evitando dependência de soluções proprietárias.

CPUs seguem como peça central na infraestrutura de IA

Apesar do foco crescente em GPUs, a Intel reforça o papel estratégico das CPUs em sistemas de IA. Os processadores Xeon 6 são responsáveis por funções críticas como:

  • Gerenciamento de memória
  • Orquestração de tarefas
  • Distribuição de cargas de trabalho
  • Segurança e estabilidade do sistema

Nos testes anteriores (MLPerf v5.1), os Xeon 6 com núcleos de performance (P-cores) entregaram até 1,9x de ganho geracional, consolidando sua relevância no ecossistema de IA.

Além disso, tecnologias como AMX e AVX-512 ampliam a capacidade de aceleração diretamente na CPU, reduzindo a dependência exclusiva de GPUs em determinadas cargas.

Competitividade em custo e capacidade

Outro ponto destacado pela Intel é a relação custo-benefício de suas soluções. Em comparação com concorrentes diretos, a Arc Pro B70 oferece:

  • Maior capacidade para modelos de grande porte
  • Suporte a janelas de contexto mais amplas
  • Até 1,6x mais capacidade de cache KV em configurações multi-GPU

Esses fatores são essenciais para aplicações modernas de IA generativa, que exigem grande volume de memória e processamento contínuo.

Intel reforça presença no ecossistema de IA

A empresa também destacou que segue como único fornecedor a submeter resultados de CPUs de forma independente no MLPerf, além de estar presente em mais da metade dos sistemas testados com aceleração por IA.

Esse cenário reforça a posição da Intel como peça central na infraestrutura global de inteligência artificial, tanto em soluções baseadas em CPU quanto em plataformas híbridas com GPU.

Tendência: IA mais acessível e distribuída

Com os avanços apresentados no MLPerf Inference v6.0, a Intel aposta em um futuro onde a inferência de IA será cada vez mais:

  • Distribuída (edge + cloud)
  • Escalável (multi-GPU e clusters)
  • Acessível (menor custo de entrada)
  • Aberta (sem dependência de ecossistemas fechados)

A estratégia acompanha a crescente demanda por processamento local e privado de dados, especialmente em setores que exigem segurança e baixa latência.

Conteúdo Relacionado

Importante é saúde!

GPU Intel Battlemage surge com 27,7B de transistores, 48% menos que rival da AMD

Fonte