Notícias

09/11/2021 às 07:00

6 min leitura

Avatar Autor
Por Claylson Martins

AMD lança GPUs Instinct MI200 para HPC e IA

A fabricante de chips também está retirando o Milan-X, seu primeiro CPU de servidor com tecnologia Chiplet 3D.

AMD lança GPUs Instinct MI200 para HPC e IA

A AMD apresentou nesta segunda-feira o acelerador Instinct MI200, a última geração de sua GPU de data center. O fabricante de chips afirma que é o acelerador HPC e IA mais rápido, superando os recordes do MI100, lançado no ano passado. O Instinct MI200 oferece um aumento de até 4,9x em computação de alto desempenho do que as GPUs de data center existentes, afirma a AMD. A empresa também afirma que é o mais rápido para treinamento de IA, oferecendo flops de pico até 1,2x mais altos para desempenho de precisão mista. Portanto, a AMD lança GPUs Instinct MI200 para HPC e IA.


O acelerador contém 58 bilhões de transistores produzidos com tecnologia de 6 nm. Isso permite até 220 unidades de computação, o que aumenta a densidade de computação em mais de 80% em comparação com o MI100. É também a primeira GPU do mundo com 128 GB de memória HBM2E.

AMD lança GPUs Instinct MI200 para HPC e IA

AMD lança GPUs Instinct MI200 para HPC e IA
Imagem: AMD/YouTube

É a primeira GPU multi-die do mundo, apresentando a segunda geração da arquitetura CDNA da AMD. A AMD revelou a arquitetura CDNA no ano passado, quando bifurcou seus projetos de data center e GPU para jogos. A arquitetura CDNA foi projetada expressamente para otimizar as cargas de trabalho de computação do data center. 

“Essas cargas de trabalho, é claro, são executadas em sistemas muito diferentes, portanto, separá-los em dois produtos e duas famílias de chips foi uma maneira fácil de projetarmos produtos melhores”, disse Brad McCreadie, vice-presidente de aceleradores de GPU da AMD para dados, a repórteres na semana passada.

O novo acelerador MI200 é cerca de 5x mais rápido do que a GPU A100 da Nvidia em desempenho de FP64 de pico. Isso é fundamental para cargas de trabalho de HPC que exigem alta precisão, como previsão do tempo. Seu desempenho de vetor FP32 de pico é cerca de 2,5 vezes mais rápido. Isso é importante para os tipos de operações matemáticas usadas para simulações de vacinas, apontou a AMD. 

Eliminação

A AMD também está eliminando o Milan-X, seu primeiro CPU de servidor com tecnologia Chiplet 3D. Será lançado oficialmente no primeiro trimestre de 2022. 

Esses processadores têm 3x o cache L3 em comparação com os processadores Milan padrão. Em Milão, cada CCD tinha 32 MB de cache. Em Milan-X, a AMD traz 96 MB por CCD. A CPU tem um total de 804 MB de cache por soquete no topo da pilha, aliviando a pressão da largura de banda da memória e reduzindo a latência. Isso, por sua vez, acelera drasticamente o desempenho do aplicativo. 

No nível de soquete, Milan-X é o processador de servidor mais rápido para cargas de trabalho de computação técnica, com um aumento de mais de 50% para cargas de trabalho de computação técnica direcionadas sobre o Milan. 

A AMD se concentrou em algumas cargas de trabalho que permitem o design do produto, como ferramentas EDA, que são usadas para simular e otimizar o design do chip. Um cache grande é fundamental para obter melhor desempenho para essas cargas de trabalho. 

No projeto do chip, a verificação é uma das tarefas mais importantes. Ajuda a detectar defeitos antes que um chip seja transformado em silício. Comparado com o Milan, o Milan-X completa 66% mais trabalhos em um determinado período de tempo. Isso deve ajudar os clientes que usam as ferramentas EDA a concluir a verificação e entrar no mercado mais rapidamente ou adicionar mais testes no mesmo período para melhorar ainda mais a qualidade ou a robustez de seu projeto.

Via ZDNet

Jornalista com pós graduações em Economia, Jornalismo Digital e Radiodifusão. Nas horas não muito vagas, professor, fotógrafo, apaixonado por rádio e natureza.

Últimos artigos

Newsletter

Receba nossas atualizações!

Newsletter

Receba nossas atualizações!
  • Este campo é para fins de validação e não deve ser alterado.