Windows

Apresentando o WebNN Developer Preview com DirectML

Temos o prazer de anunciar a disponibilidade da visualização do desenvolvedor para WebNN, um padrão da internet para inferência de rede neural acelerada por {hardware} e multiplataforma no navegador, usando DirectML e ONNX Runtime Internet. Esta visualização permite que os desenvolvedores internet aproveitem o poder e o desempenho do DirectML em GPUs com suporte em breve para os processadores Intel® Core™ Extremely com Intel® AI Enhance e o PC Copilot+, equipado com NPUs Qualcomm® Hexagon™.

Diagrama mostrando como o WebNN se encaixa na arquitetura

WebNN é uma virada de jogo para o desenvolvimento internet. É um padrão internet emergente que outline como executar modelos de aprendizado de máquina no navegador, usando a aceleração de {hardware} da GPU ou NPU do seu dispositivo native. Dessa forma, você pode aproveitar aplicativos internet que utilizam aprendizado de máquina sem nenhum software program ou plug-in additional e sem comprometer sua privacidade ou segurança. WebNN abre novas possibilidades para aplicações internet, como IA generativa, reconhecimento de objetos, processamento de linguagem pure e muito mais.

WebNN é um padrão da internet que outline como fazer interface com diferentes back-ends para inferência de ML acelerada por {hardware}. Um dos back-ends que o WebNN pode usar é o DirectML, que fornece aceleração de ML de alto desempenho entre {hardware} em dispositivos Home windows. Ao aproveitar o DirectML, o WebNN pode se beneficiar da escala de {hardware}, do desempenho e da confiabilidade do DirectML.

Com o WebNN, você pode aproveitar o poder dos modelos de ML em seu aplicativo da internet. Ele oferece os principais elementos do ML, como tensores, operadores e gráficos. Você também pode combiná-lo com ONNX Runtime Internet, uma biblioteca JavaScript que permite executar modelos ONNX no navegador. ONNX Runtime Internet inclui um provedor de execução WebNN que simplifica o uso do WebNN.

Para saber mais ou ver isso em ação, confira nossas diversas sessões de Construct. Veja abaixo para obter detalhes.

Veja aqui para saber o que nossos parceiros fornecedores de {hardware} têm a dizer:

  • AMD: A AMD está entusiasmada com o lançamento do WebNN com DirectML, permitindo a execução native de modelos generativos de aprendizado de máquina de IA em {hardware} AMD. Saiba mais sobre onde mais a AMD está investindo com DirectML.
  • Informações: A Intel aguarda com expectativa as novas possibilidades que WebNN e DirectML trazem para desenvolvedores internet – saiba mais aqui sobre nossos investimentos em WebNN. Baixe o driver mais recente para melhor desempenho.
  • NVIDIA: A NVIDIA está entusiasmada em ver o DirectML potencializando o WebNN para trazer ainda mais maneiras para os aplicativos da internet aproveitarem a aceleração de {hardware} em GPUs RTX. Confira todos os anúncios do Microsoft Construct relacionados à NVIDIA em torno de PCs RTX AI e sua colaboração expandida com a Microsoft.

Primeiros passos com a visualização do desenvolvedor WebNN

Com o WebNN Developer Preview, desenvolvido com DirectML e ONNX Runtime Internet, você pode executar modelos ONNX no navegador com aceleração de {hardware} e alterações mínimas de código.

Para começar a usar o WebNN em GPUs compatíveis com DirectX 12, você precisará de:

Para obter mais instruções e informações sobre modelos e operadores suportados, visite nossa documentação. Para experimentar exemplos, visite a página WebNN Developer Preview.

Saber mais

Não deixe de conferir estas sessões na Construct Convention da Microsoft para saber mais sobre WebNN:

Documentação e exemplos adicionais do WebNN:

Artigos relacionados

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button