terça-feira, março 17, 2026
Portal Brasil > Tecnologia > Samsung revela memórias HBM4E: até 4 TB/s de largura de banda por camada

Samsung revela memórias HBM4E: até 4 TB/s de largura de banda por camada

A Samsung aproveitou o palco da GTC 2026, em San Jose, para apresentar ao mundo pela primeira vez o HBM4E, sua memória de sétima geração de alta largura de banda.

Com velocidades de transferência de até 16 Gbps por pino e 4 TB/s de largura de banda por stack, o componente representa um salto substancial frente à geração anterior e foi desenvolvido com foco explícito na plataforma NVIDIA Vera Rubin Ultra, prevista para o segundo semestre de 2027.

A revelação aconteceu no estande da Samsung na conferência anual da NVIDIA, onde a empresa sul-coreana também exibiu o HBM4 (já em produção em massa) além do módulo de memória SOCAMM2 e os SSDs PM1763 e PM1753, todos voltados à infraestrutura de IA da NVIDIA.

Divulgação/Samsung

HBM4E: os números por trás do anúncio

O HBM4E chega com configuração de 16 camadas (16-Hi), o que eleva a densidade de memória por stack para 48 GB.

Quando combinado com a arquitetura do Rubin Ultra, que prevê quatro chiplets de GPU e 16 sites de memória HBM, os números projetados para o sistema completo se tornam expressivos: até 384 GB de capacidade total de HBM4E e largura de banda agregada de até 64 TB/s, considerando os 16 Gbps por pino.

Para efeito de comparação, a plataforma Rubin atual opera com 288 GB de HBM4 e até 22 TB/s de largura de banda. O salto entre as gerações, portanto, é uma reconfiguração da escala de memória disponível para workloads de IA em nível de rack.

A fabricação do HBM4E utilizará o processo DRAM de décima geração em classe de 10 nm (1c) da Samsung, o mesmo empregado no HBM4. A empresa afirma ter atingido estabilidade de rendimento nesse nó, o que é um indicador relevante para a viabilidade de produção em escala.

HBM4 já em produção e com a aprovação de Jensen Huang

Enquanto o HBM4E ainda é exibido como protótipo, o HBM4 já está em produção em massa e serve como base da plataforma NVIDIA Vera Rubin.

A memória opera a 11,7 Gbps por pino (acima do padrão da indústria de 8 Gbps) e pode ser ajustada para até 13 Gbps dependendo da configuração do sistema.

Divulgação/Samsung

O momento simbólico mais marcante da participação da Samsung na GTC veio quando o CEO da NVIDIA, Jensen Huang, visitou o estande e assinou em um wafer de HBM4 os dizeres “Amazing HBM4”… Um gesto que, no contexto da relação estratégica entre as duas empresas, carrega peso considerável.

A Samsung foi a primeira empresa do mundo a apresentar publicamente o HBM4E, consolidando sua posição na corrida pelo fornecimento de memória para as próximas gerações de aceleradores de IA

Hybrid Copper Bonding: a tecnologia que viabiliza mais camadas

Um dos elementos técnicos mais relevantes apresentados pela Samsung é a tecnologia HCB (Hybrid Copper Bonding), método de empacotamento que substituirá o TCB (Thermal Compression Bonding) nas próximas gerações de HBM.

Divulgação/Samsung

A HCB permite que chips sejam empilhados em 16 ou mais camadas com uma redução de mais de 20% na resistência térmica em relação ao método atual.

Esse avanço no empacotamento é o que viabiliza, na prática, o salto de capacidade e velocidade do HBM4E: mais camadas significam mais memória por stack, e menos calor gerado significa maior estabilidade operacional em sistemas com dezenas de chips funcionando simultaneamente.

Além do HBM: SSDs PCIe 6.0 e memória SOCAMM2

A empresa também exibiu o SSD PM1763, baseado na interface PCIe 6.0, a mais recente geração do padrão, desenvolvido como solução de armazenamento para IA de próxima geração. O produto será demonstrado em servidores que utilizam o modelo de programação NVIDIA SCADA.

Além disso,em destaque estava o PM1753, SSD que integra a arquitetura de referência NVIDIA BlueField-4 STX, voltada para cargas de trabalho de inferência com maior eficiência energética.

Divulgação/Samsung

No segmento de memória para servidores, o SOCAMM2 (módulo baseado em DRAM de baixo consumo) já está em produção em massa.

A Samsung afirma ser a primeira empresa do mundo a atingir esse marco com esse tipo de produto, o que o posiciona como módulo de referência para a próxima geração de infraestrutura de servidores de IA.

Memória para dispositivos locais: LPDDR5X e LPDDR6

A empresa sul-coreana apresentou ainda soluções de memória voltadas para dispositivos de uso pessoal e edge computing.

O LPDDR5X entrega velocidades de até 25 Gbps por pino com redução de até 15% no consumo de energia em relação à geração anterior, adequado para smartphones premium, tablets e aplicações de IA em dispositivos móveis.

Divulgação/Samsung

Já o LPDDR6 eleva a largura de banda para uma faixa escalável de 30 a 35 Gbps por pino e incorpora recursos avançados de gerenciamento de energia, como escalonamento adaptativo de voltagem e controle dinâmico de atualização, tecnologias voltadas a workloads de IA local na próxima geração de dispositivos portáteis.

Divulgação/Samsung

Roteiro de longo prazo: HBM5 e HBM5E já no horizonte

Além do HBM4E, a Samsung revelou seus planos para as duas gerações seguintes de memória de alta largura de banda. O HBM5 (oitava geração) será desenvolvido com o processo DRAM 1c em conjunto com um processo de fundição em 2 nm. O HBM5E (nona geração) avançará para o nó DRAM 1d, também combinado com o processo de 2 nm.

Leia também:

  • Monitor Samsung Odyssey 3D terá suporte nativo a mais de 120 games em 3D
  • Mercado de DRAM cresceu mais de 29% no último trimestre e Samsung voltou ao topo
  • Samsung, SK Hynix e Micron se unem para barrar estoque excessivo de memória e conter especulação

Parceria que define o ritmo da IA

O que a GTC 2026 deixou claro é que a relação entre Samsung e NVIDIA está mais próxima do que nunca e está além de uma cadeia de fornecimento convencional.

Com HBM4 em produção, HBM4E em exibição pública pela primeira vez no mundo, SSDs PCIe 6.0 integrados às plataformas NVIDIA e memórias SOCAMM2 já em escala industrial, a Samsung colocou-se como peça central da infraestrutura que sustentará a próxima onda de aceleradores.

O ritmo com que essas gerações se sucedem (HBM4, HBM4E, HBM5 e HBM5E anunciadas praticamente em sequência) indica que a corrida por largura de banda em IA não tem prazo de desaceleração à vista.

Fonte(s): Samsung

Conteúdo Relacionado
Samsung começa a fabricar chips Groq 3 LPU para a NVIDIA

Voltou!

Samsung começa a fabricar chips Groq 3 LPU para a NVIDIA

Fonte