News

AMD afia espadas de silício para enfrentar rivais em chips e IA

Comentário Antes uma empresa relativamente pequena na indústria de chips, a AMD sente que está tudo bem após uma série de erros da grande rival Intel, e a chefona Lisa Su não perde tempo em falar sobre seu plano de jogo para os investidores.

O negócio de semicondutores fabless há muito tempo ficou em segundo plano em relação ao outro fabricante de chips de Santa Clara, bem como à Nvidia, nas apostas de aceleradores de GPU. Mas em seus resultados mais recentes, a AMD relatou que as receitas do data center aumentaram 115 por cento e prevê que lucrará US$ 4,5 bilhões com GPUs este ano.

Falando na Conferência de Tecnologia e Comunicação do Goldman Sachs esta semana, o presidente e CEO Su confirmou que “a IA é uma grande prioridade para nós”, mas acrescentou que o suporte de ponta a ponta para a tecnologia é fundamental.

“Eu acredito muito que não existe uma solução única para todos em termos de computação. E então nosso objetivo é ser o líder em computação de alto desempenho que abrange GPUs, CPUs, FPGAs e também silício personalizado, à medida que você junta tudo isso”, ela disse.

Não pode doer que o maior rival da AMD seja passando por um momento difícil no momento, embora Su não tenha mencionado a Intel e surpreendentemente – ou talvez intencionalmente – o assunto não foi levantado pelo apresentador do Goldman Sachs.

Bilhões estão sendo gastos em IA, mas Su admitiu que o setor ainda está em um estágio inicial neste ciclo de computação específico e previu que haverá demanda contínua por infraestrutura mais poderosa.

“Seja falando sobre treinamento de grandes modelos de linguagem, ou sobre inferência, ou sobre ajuste fino, ou sobre todas essas coisas; as cargas de trabalho exigirão mais computação”, afirmou ela, acrescentando que não se trata apenas de GPUs.

“Acreditamos que as GPUs serão a maior parte disso [forecast] Mercado total endereçável de US$ 400 bilhões, mas também haverá algum silício personalizado associado a isso. E quando olhamos para nossa oportunidade lá, é realmente um jogo de ponta a ponta em todos os diferentes elementos de computação.”

AMD mudou para uma cadência de um ano para GPUs em parte para acompanhar a Nvidia, mas o CEO alegou que também era para que a AMD pudesse aumentar seu portfólio com produtos que cobrissem toda a gama de necessidades.

“É claro que você tem os maiores hiperescaladores que estão construindo esses enormes clusters de treinamento, mas também há muita necessidade de inferência, algumas são cargas de trabalho que exigem mais memória e que realmente se concentrariam ali, algumas são mais limitadas pela energia do data center”, explicou ela.

“Então, o que conseguimos fazer com nosso MI325, cujo lançamento está previsto para o quarto trimestre, e depois com as séries MI350 e MI400, foi realmente ampliar os diferentes produtos para que pudéssemos capturar a maior parte do mercado potencial com nosso roteiro de produtos.”

Su também descreveu a proposta da AMD de se tornar um fornecedor-chave de chips de IA para os hiperescaladores, bem como para os maiores clientes empresariais, parte dos quais inclui pendente compra da ZT Systemsuma empresa que fabrica servidores de alto desempenho para operadoras de nuvem.

“Continuamos a construir toda a infraestrutura do que precisamos. Então, anunciamos recentemente várias aquisições de software, incluindo a aquisição da Silo AI, que é uma empresa líder em software de IA. E anunciamos recentemente a aquisição da ZT Systems, que também constrói uma espécie de infraestrutura de escala de rack necessária.”

Essa decisão foi motivada por conversas com clientes e pela análise do que seria necessário daqui a três a cinco anos, afirmou Su.

“A infraestrutura em escala de rack – porque esses sistemas de IA estão ficando tão complicados – realmente precisa ser pensada no design, mais ou menos ao mesmo tempo em paralelo com a infraestrutura de silício. Então, estamos muito animados com a aquisição da ZT”, ela explicou, acrescentando que “o conhecimento do que estamos tentando fazer no nível do sistema nos ajudará a projetar um roteiro mais forte e capaz”.

A outra vantagem será acelerar a validação dos vários componentes necessários para a infraestrutura de IA.

“O tempo que leva para montar esses clusters é bem significativo. Descobrimos, no caso do MI300, que concluímos nossa validação, mas os clientes precisavam fazer seu próprio ciclo de validação. E muito disso foi feito em série, enquanto com o ZT como parte da AMD, seremos capazes de fazer muito disso em paralelo. E esse tempo de lançamento no mercado nos permitirá ir do design completo para sistemas de larga escala, executando cargas de trabalho de produção em um período de tempo menor, o que será muito benéfico para nossos clientes.”

Outra peça do quebra-cabeça é o software, e o fabricante de chips tem outra compra pendente aqui na desenvolvedora finlandesa Silo de IA.

A AMD vem aprimorando seu próprio conjunto de software de GPU, o ROCm, para competir com a líder do mercado Nvidia, cujas ferramentas associadas, incluindo a plataforma CUDA, quase se tornaram um padrão de fato.

“Nos últimos nove ou dez meses, passamos uma quantidade enorme de tempo liderando cargas de trabalho. E o que descobrimos é que, com cada iteração do ROCm, estamos ficando cada vez melhores… em termos de ferramentas, em termos de todas as bibliotecas, [and] em termos de saber onde estão os gargalos em termos de desempenho”, afirmou Su.

“Conseguimos demonstrar com algumas das cargas de trabalho mais desafiadoras que melhoramos consistentemente o desempenho. E em alguns casos, alcançamos a paridade, em muitos casos, realmente superamos nossa concorrência, especialmente com algumas das cargas de trabalho de inferência, porque, devido à nossa arquitetura, temos mais largura de banda de memória e capacidade de memória.”

Mas a IA não é apenas uma preocupação do data center, pois IA PC é também uma das tendências que a indústria vem promovendo desesperadamente neste ano, em um esforço para estimular as vendas fracas de desktops e laptops.

“Acredito que estamos no início de um ciclo plurianual de IA e PC”, disse Su na conferência.

“Nós nunca dissemos que os PCs de IA seriam um grande fenômeno em 2024. Os PCs de IA são [making] um começo em 2024. Mas o mais importante é que é a inovação mais significativa que chegou ao mercado de PCs definitivamente nos últimos dez anos”, ela opinou, acrescentando que representa uma oportunidade para sua empresa — tradicionalmente a azarona no mercado de PCs — especialmente porque há muita confusão até mesmo em torno da definição de um PC com IA.

“Descobrimos que muitos clientes corporativos estão nos puxando para suas conversas sobre IA. Porque, francamente, os clientes corporativos querem ajuda, certo? Eles querem saber: ‘Ei, como devo pensar sobre esse investimento? Devo pensar em nuvem ou no local ou como devo pensar em PCs de IA?’ E então nos encontramos agora em uma posição mais como um consultor confiável com algumas dessas contas corporativas.”

Falando de forma mais ampla, Su disse que a IA é uma oportunidade que não pode ser ignorada pela AMD.

“Acho que esse tipo de arco tecnológico de IA é realmente algo que acontece uma vez a cada 50 anos, então temos que investir. Sendo esse o caso, seremos muito disciplinados nesse investimento. E então esperamos aumentar o opex mais lentamente do que aumentamos a receita. Mas vemos uma grande oportunidade à nossa frente.”

Su finalizou com seu discurso de vendas, mais ou menos, falando sobre o que os clientes empresariais precisam ter em mente no momento atual.

“Este é um superciclo de computação, então todos nós devemos reconhecer isso. E não há um player ou arquitetura que vai assumir. Acho que este é um caso em que ter a computação certa para a carga de trabalho certa e o aplicativo certo é super importante.”

E é nisso que a AMD vem trabalhando nos últimos cinco anos, ela afirmou: para ter a melhor CPU, GPU, FPGA e recursos semi-personalizados para atender às necessidades dos clientes.

Isto contrasta fortemente com a última meia década na Intel, que foi caracterizada por atrasos de chips de 10 nmum nó de processo de 7 nm que estava bem atrasadoo retorno do filho pródigo Pat Gelsinger, desta vez como CEO, que projetou um projeto para o sucesso futuro que ele é agora reformulaçãoe valorização de mercado em queda. ®

Source

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button