**MLCommons lança benchmark de inferência 4.1 para modelos de MoE com estreia do modelo Nvidia Blackwell**
A indústria de inteligência artificial (IA) está constantemente se desenvolvendo, e a precisão e eficiência dos modelos de aprendizado de máquina (ML) são cruciais para o sucesso de variados aplicativos. A MLCommons, uma organização sem fins lucrativos focada em padronizar e aprimorar a infraestrutura de ML, apresentou hoje um novo benchmark de inferência 4.1 para modelos de Mixture of Experts (MoE).
Esta versão, uma atualização do benchmark de inferência 3.0, lançado em outubro de 2020, incorpora aprimoramentos na arquitetura de hardware e software. Essas melhorias possibilitam que os modelos de ML sejam testados em diversas plataformas e dispositivos, adaptando-se a múltiplas necessidades de aplicação.
A grande novidade foi a inclusão do modelo Nvidia Blackwell, um MoE desenvolvido pela Nvidia que foi testado utilizando este novo benchmark. O Blackwell destaca-se por sua escalabilidade e eficiência de recursos, tornando-o ideal para aplicações de IA em ambientes de cloud e edge computing.
Iain Lea, diretor de tecnologia da MLCommons, ressaltou a importância dessa atualização: “O benchmark de inferência 4.1 é fundamental para nossa comunidade, pois permite que os desenvolvedores testem e melhorem a performance dos seus modelos de ML em uma grande variedade de plataformas e dispositivos. A estreia do modelo Nvidia Blackwell nos testes é um marco significativo para a indústria de IA, demonstrando a capacidade da Nvidia de desenvolver modelos de MoE que são não apenas escaláveis, mas também extremamente eficientes.”
A implementação do benchmark de inferência 4.1 representa uma ferramenta valiosa para a indústria de IA, facilitando que os desenvolvedores testem e refinem a performance dos seus modelos em diferentes plataformas e dispositivos. Isso assegura que os modelos de ML sejam tanto precisos quanto eficientes, qualidades essenciais para o êxito de numerosos aplicativos em IA.
Fonte: VentureBeat