E-mail


Senha

Lembrar senha

   
Informe o e-mail usado para fazer o login


   



Pesquisa




NVIDIA amplia a liderança no desempenho de inferência de IA com resultados de estreia em servidores baseados em Arm
Enviar release
Este release no seu Blog ou Site
NVIDIA amplia a liderança no desempenho de inferência de IA com resultados de estreia em servidores baseados em Arm
...

Empresa bate recordes em testes de inferência do MLPerf pela terceira vez consecutiva

A NVIDIA oferece os melhores resultados em inferência de IA utilizando x86 ou CPUs Arm, de acordo com benchmarks divulgados nesta quarta-feira, 22/9. É a terceira vez consecutiva que a NVIDIA bate recordes em desempenho e eficiência energética em testes de inferência do MLPerf, um grupo de benchmarking da indústria formado em maio de 2018.

Além disso, foi a primeira vez que os testes de categoria de data center são executados em um sistema baseado em Arm, dando aos usuários mais opções de como implantar a Inteligência Artificial (IA).

Pioneirismo nos testes

Os sistemas baseados na plataforma NVIDIA AI superaram todos os sete testes de desempenho de inferência na última rodada, com sistemas da NVIDIA e de nove dos parceiros de ecossistema, incluindo Alibaba, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Nettrix e Supermicro. A companhia é a única a relatar os resultados de todos os testes MLPerf nesta e em todas as rodadas até o momento.

A inferência é o que acontece quando um computador executa um software de IA para reconhecer um objeto ou fazer uma previsão. É um processo que usa um modelo de deep learning para filtrar dados, encontrando resultados que nenhum ser humano poderia capturar.

Os benchmarks de inferência do MLPerf são baseados nas cargas de trabalho e cenários de IA mais populares da atualidade, abrangendo visão computacional, imagens médicas, processamento de linguagem natural, sistemas de recomendação, aprendizado por reforço etc. Portanto, quaisquer que sejam as aplicações de IA implantadas, os usuários podem definir seus próprios registros com a NVIDIA.

“É muito gratificante para nós perceber o quanto a divisão Enterprise da NVIDIA vem se destacando como líder em soluções para inteligência artificial em todo o mundo. Continuaremos inovando em outras plataformas que contribuirmos para diversos setores”, ressalta Marcio Aguiar, diretor da divisão Enterprise da NVIDIA para América Latina.

Desempenho é importante

Modelos e conjuntos de dados de IA continuam a crescer à medida que os casos de uso da tecnologia se expandem do data center ao edge. É por isso que os usuários precisam de um desempenho que seja confiável e flexível para implantar. O MLPerf concede aos usuários a confiança para tomar decisões de compra informadas e é apoiado por dezenas de líderes da indústria, incluindo Alibaba, Arm, Baidu, Google, Intel e NVIDIA, portanto, os testes são transparentes e objetivos.

Além do desempenho, a NVIDIA mostrou liderança em eficiência energética, graças aos testes executados em seu portfólio de GPUs NVIDIA A100 Tensor Core, A30 e Jetson AGX Xavier.

Flexibilizando a Arm para a IA corporativa

A arquitetura Arm está avançando em data centers em todo o mundo, em parte graças à sua eficiência energética, aumento de desempenho e expansão do ecossistema de software.

Os benchmarks mais recentes mostram que, como uma plataforma acelerada por GPU, os servidores baseados em Arm que usam CPUs Ampere Altra oferecem desempenho quase igual a servidores baseados em x86 configurados de forma semelhante para trabalhos de inferência de IA. Na verdade, em um dos testes, o servidor baseado em Arm superou um sistema x86 semelhante.

A NVIDIA tem uma longa tradição de suporte a todas as arquiteturas de CPU, por isso a companhia está orgulhosa de ter ajudado a Arm a provar suas proezas de IA em um benchmark do setor revisado por pares.

“A Arm, como membro fundador da MLCommons, está comprometida com o processo de criação de padrões e benchmarks para melhor enfrentar os desafios e inspirar a inovação na indústria de computação acelerada”, afirma David Lecomber, diretor sênior de HPC e ferramentas da Arm.

“Os resultados de inferência mais recentes demonstram a prontidão dos sistemas baseados em Arm acionados por CPUs baseadas em Arm e GPUs da NVIDIA para lidar com uma ampla gama de cargas de trabalho de IA no data center”, acrescenta.

Parceiros mostram seus poderes de IA

A tecnologia de IA da NVIDIA é suportada por um grande e crescente ecossistema. Sete OEMs enviaram um total de 22 plataformas aceleradas por GPU nos últimos benchmarks. A maioria desses modelos de servidor é certificada pela NVIDIA, validada para executar uma ampla gama de cargas de trabalho aceleradas. Além disso, muitos deles suportam o NVIDIA AI Enterprise, software lançado oficialmente no mês passado.

Entre os parceiros participantes desta rodada estão a Dell Technologies, Fujitsu, Hewlett Packard Enterprise, Inspur, Lenovo, Nettrix e Supermicro, bem como o provedor de serviços no cloud Alibaba.

O poder do software

Um ingrediente chave para o sucesso da IA da NVIDIA em todos os casos de uso é o pacote completo de software. Para inferência, isso inclui modelos de inteligência articicial pré-treinados para uma ampla variedade de casos de uso. O Kit de Ferramentas NVIDIA TAO personaliza esses modelos para aplicações específicas usando o aprendizado por transferência.

O software NVIDIA TensorRT otimiza os modelos de IA para que realize melhor uso de memória e funcionem mais rápido. A empresa também utiliza rotineiramente para testes MLPerf e está disponível para sistemas baseados em x86 e Arm.

A  empresa também incluiu o software para Servidor de Inferência NVIDIA Triton e o recurso de GPU Multi-Instância (MIG) nesses benchmarks. Eles oferecem a pessoas desenvolvedoras o tipo de desempenho que geralmente requer codificadores experientes. Graças a melhorias contínuas neste pacote de software, a NVIDIA obteve ganhos de até 20% em desempenho e 15% em eficiência de energia dos benchmarks de inferência MLPerf anteriores há apenas quatro meses.

Todo o software que a NVIDIA Enterprise utilizou nos últimos testes está disponível no repositório MLPerf, para que qualquer pessoa possa reproduzir os resultados de benchmark. A companhia também adiciona continuamente esse código em seus frameworks de deep learning e contêineres disponíveis no NGC, o hub de software para aplicações de GPU.

É parte de uma oferta do pacote completo de IA, com suporte para todas as principais arquiteturas de processador, comprovada nos mais recentes benchmarks do setor e disponível para lidar com tarefas reais de tecnologia.

Para saber mais sobre a plataforma de inferência NVIDIA, confira a visão geral da tecnologia nesse link.

Editorias: Ciência e Tecnologia  
Tipo: Pauta  Data Publicação:
Fonte do release
Empresa: Singular Comunicação de Resultados  
Contato: Janaina Leme  
Telefone: 11-50917838-

Envie um e-mail para o(a) responsável pela notícia acima:
Seu nome

Seu e-mail

Mensagem

Digite o código mostrado abaixo

  
Skype:
MSN:
Twitter:
Facebook:
Copyright 2008 - DIFUNDIR - Todos os direitos reservados. Não é permitida a reprodução deste conteúdo sem prévia autorização.