quarta-feira, março 12, 2025
Portal Brasil > Tecnologia > Meta começa a testar primeiro chip interno de treinamento de IA

Meta começa a testar primeiro chip interno de treinamento de IA

CNN Brasil

Proprietária do Facebook, a Meta está testando seu primeiro chip interno para treinamento de sistemas de inteligência artificial, um marco importante à medida que busca reduzir a dependência de fornecedores externos como a Nvidia, disseram duas fontes à Reuters.

A maior empresa de mídia social do mundo iniciou uma pequena implantação do chip e planeja aumentar a produção para uso em larga escala se o teste for bem-sucedido, disseram as fontes.

O esforço para desenvolver chips internamente faz parte de um plano de longo prazo da Meta para reduzir seus enormes custos de infraestrutura, à medida que a empresa faz apostas altas em ferramentas de IA.

A Meta, que também é dona do Instagram e do WhatsApp, prevê despesas totais de US$ 114 bilhões (cerca de R$ 665 bilhões) a US$ 119 bilhões (cerca de R$ 695 bilhões) em 2025, incluindo até US$ 65 bilhões (cerca de R$ 380 bilhões) em despesas de capital, impulsionadas principalmente por gastos em infraestrutura de IA.

Uma das fontes disse que o novo chip de treinamento da Meta é um acelerador dedicado, o que significa que ele foi projetado para lidar apenas com tarefas específicas de IA. Isso pode torná-lo mais eficiente em termos de energia do que as unidades de processamento gráfico integradas (GPUs), geralmente usadas para cargas de trabalho de IA.

A Meta está trabalhando com o fabricante de chips TSMC, sediado em Taiwan, para produzir o chip, disse essa fonte.

A implantação do teste começou depois que a Meta concluiu seu primeiro “tape-out” do chip — um marcador significativo de sucesso no trabalho de desenvolvimento de silício, que envolve o envio de um projeto inicial por uma fábrica de chips, disse a outra fonte.

Um tape-out típico custa dezenas de milhões de dólares e leva de três a seis meses para ser concluído, sem garantia de que o teste será bem-sucedido. Uma falha exigiria que a Meta diagnosticasse o problema e repetisse a etapa de tape-out.

A Meta e a TSMC não quiseram comentar.

O chip é o mais recente da série Meta Training and Inference Accelerator (MTIA) da empresa. O programa teve um começo instável e em um momento descartou um chip numa fase similar de desenvolvimento.

No ano passado, no entanto, a Meta começou a usar um chip MTIA para realizar inferência – o processo envolvido na execução de um sistema de IA enquanto os usuários interagem com ele – nos sistemas de recomendação que determinam qual conteúdo aparece nos feeds de notícias do Facebook e do Instagram.

Executivos da Meta disseram que querem começar a usar seus próprios chips até 2026 para treinamento, ou seja, para o processo intensivo de computação de alimentar o sistema de IA com grandes quantidades de dados para “ensiná-lo” a executar suas funções.

Assim como o chip de inferência, o objetivo do chip de treinamento é começar com sistemas de recomendação e depois passar para produtos de IA generativa, como o chatbot Meta AI, disseram os executivos.

“Estamos trabalhando em como faríamos o treinamento para sistemas de recomendação e, eventualmente, como pensaríamos sobre treinamento e inferência para IA generativa”, disse na semana passada o diretor de produtos da Meta, Chris Cox, na conferência de tecnologia, mídia e telecomunicações do Morgan Stanley.

Cox descreveu os esforços de desenvolvimento do chip da Meta como “uma espécie de situação de andar, engatinhar e correr” até agora, mas disse que os executivos consideraram o chip de inferência de primeira geração para recomendações um “grande sucesso”.

Anteriormente, a Meta desistiu de um chip de inferência personalizado interno após ele fracassar em uma implantação de teste em pequena escala, semelhante à que está fazendo agora para o chip de treinamento.

A empresa de mídia social continua sendo uma das maiores clientes da Nvidia desde então, acumulando um arsenal de GPUs para treinar seus modelos, incluindo recomendações e sistemas de anúncios e sua série de modelos Llama. As unidades também realizam inferência para mais de 3 bilhões de pessoas que usam seus aplicativos todos os dias.

O valor dessas GPUs foi questionado neste ano, à medida que pesquisadores de IA expressam cada vez mais dúvidas sobre quanto progresso pode ser feito ao se continuar a “ampliar” grandes modelos de linguagem adicionando cada vez mais dados e poder de computação.

Essas dúvidas foram reforçadas com o lançamento, no final de janeiro, de novos modelos de baixo custo da startup chinesa DeepSeek, que otimizam a eficiência computacional ao depender mais da inferência do que a maioria dos modelos tradicionais.

Veja também: Inteligência artificial pode gerar “aniquilação global”, dizem especialistas

Brasil está entre os países que mais usam inteligência artificial

Fonte