ZenDNN 5.0

AMD ZenDNN 5.0: Melhorias para EPYC Zen 5 e modelos de IA Gerativa

Logotipo da AMD com design moderno em fundo preto

A AMD lançou oficialmente a versão 5.0 de sua biblioteca ZenDNN, projetada para redes neurais profundas e otimizada para os processadores AMD Zen 5, incluindo a linha EPYC 9005. Esta atualização não só melhora o desempenho de modelos de linguagem gerativa, como também é compatível com as APIs do oneDNN da Intel, o que facilita a integração em sistemas já existentes.

Otimizações para processadores AMD Zen 5

O ZenDNN 5.0 foi especialmente ajustado para tirar o máximo proveito da nova geração de processadores AMD EPYC “Turin” e dos novos processadores Ryzen 9000. Com isso, a versão mais recente da biblioteca promete um desempenho superior em comparação às versões anteriores, especialmente em tarefas intensivas de IA, como o treinamento e execução de modelos de linguagem de grande escala.

Principais melhorias e recursos

  1. Suporte para Processadores AMD Zen 5
    A principal novidade é o suporte aprimorado para a arquitetura Zen5, proporcionando melhorias no desempenho e eficiência ao lidar com tarefas complexas, como operações de multiplicação de matrizes (MATMUL), agora otimizadas para precisão BF16.
  2. Aprimoramentos para Modelos LLM Gerativos
    O ZenDNN 5.0 traz importantes melhorias para modelos de linguagem de grande porte (LLMs), como Llama2, Llama3, GPT, e outros. Essas otimizações visam aumentar a velocidade e reduzir o uso de recursos, especialmente no uso do PyTorch, com a função zentorch.llm.optimize(), que aplica ajustes específicos para a arquitetura AMD EPYC™.
  3. Otimizações Específicas para o PyTorch
    Além de ajustes nos modelos generativos, o ZenDNN 5.0 introduz o operador de Atenção de Produto Escalar Otimizado (SDPA) e melhorias no cache KV para as arquiteturas de cache da AMD. Essas atualizações visam proporcionar maior desempenho em tarefas como recomendação de sistemas, através do suporte à precisão BF16.
  4. Compatibilidade com TensorFlow e PyTorch
    O ZenDNN 5.0 é totalmente compatível com TensorFlow 2.16+ e PyTorch 2.0+, duas das mais populares bibliotecas para treinamento de redes neurais. A integração com o ONNX Runtime v1.19.2 também é garantida, ampliando as possibilidades de uso do ZenDNN em diferentes frameworks.
  5. Autotuning e Quantização de Peso
    A atualização inclui um algoritmo de autotuning para a precisão BF16, projetado para otimizar modelos de LLM generativos. Além disso, o ZenDNN agora oferece suporte para quantização de peso com INT4 e ativações BF16, o que pode resultar em um uso mais eficiente de recursos, especialmente para modelos exportados usando o AMD Quantizer Quark.

Conclusão e impacto

O ZenDNN 5.0 representa um grande avanço para a AMD, oferecendo uma biblioteca poderosa para modelos de IA e aprendizado profundo, especialmente para aqueles que utilizam processadores AMD Zen 5. Com otimizações focadas em modelos generativos e melhorias de desempenho específicas para a arquitetura EPYC, a nova versão da biblioteca promete beneficiar tanto desenvolvedores de IA quanto cientistas de dados, proporcionando um desempenho superior em diversos cenários de uso.

Acesse a versão completa
Sair da versão mobile