Tech

Enfrentando o domínio da Nvidia: estratégias de desenvolvimento ágil de ML para players que não são grandes empresas de tecnologia (em meio a desafios de fornecimento e custo)

Construir um negócio no jogo entre os verdadeiros grandes jogadores nunca foi uma tarefa fácil. Em 2023, a concorrência no setor da IA ​​atingiu níveis sem precedentes, alimentada por avanços reais e alucinantes. O lançamento do GPT-4 da OpenAI, a integração do ChatGPT com o Bing, o lançamento do Bard pelo Google e o polêmico lançamento do Llama 2 de “código aberto” do Meta. Parece uma longa lista de grandes nomes, certo? Por mais emocionante que possa parecer, a maior parte da inovação reside onde o dinheiro flui, e a competição que os pequenos gamers tecnológicos têm de enfrentar está a tornar-se mais intensa a cada dia.

No cenário em constante evolução da indústria tecnológica, a Nvidia continua a solidificar a sua posição como o principal interveniente na infraestrutura de IA. Durante uma teleconferência sobre relatórios financeiros em agosto, Jensen Huang, presidente da NVIDIA, destacou a crescente demanda por processadores Nvidia. Esta afirmação é apoiada pela confirmação dos dados de receita do Q3 In r Presentation da Nvidia, que revelam um impressionante recorde de desempenho ano a ano, evidente já em novembro no acumulado do ano. Enquanto isso, as projeções do Gartner indicam um aumento significativo nos gastos com chips nos próximos quatro anos. Atualmente, a pilha de software program e os processadores da Nvidia são incomparáveis, deixando a indústria incerta sobre quando um concorrente confiável poderá surgir.

Relatórios recentes da Bloomberg e do Monetary Occasions lançam luz sobre as negociações de Sam Altman, CEO da OpenAI, com investidores do Oriente Médio para iniciar a produção de chips, com o objetivo de reduzir a dependência do setor de IA dos chips Nvidia. Desafiar a Nvidia, com a sua capitalização de mercado de quase 1,5 biliões de dólares, provavelmente custará a Altman entre 5 biliões e 7 biliões de dólares e levará vários anos.

No entanto, abordar a relação custo-eficácia dos modelos de ML para os negócios é algo que as empresas têm de fazer agora. Para empresas fora do domínio das grandes tecnologias, o desenvolvimento de modelos de ML econômicos é mais do que apenas um processo de negócios: é uma estratégia de sobrevivência important. Este artigo explora quatro estratégias pragmáticas que capacitam empresas de todos os tamanhos a desenvolverem seus modelos sem grandes investimentos em P&D e permanecerem flexíveis para evitar a dependência de fornecedores.

Por que a Nvidia domina o mercado de IA

Resumindo, a Nvidia criou o fluxo de trabalho de treinamento de modelo preferrred ao alcançar sinergia entre GPUs de alto desempenho e sua pilha proprietária de software program de treinamento de modelo, o amplamente aclamado equipment de ferramentas CUDA.

CUDA (introduzido em 2007) é um equipment de ferramentas e API de computação paralela abrangente para utilização preferrred dos processadores GPU Nvidia. A principal razão pela qual é tão standard é a sua capacidade incomparável de acelerar cálculos matemáticos complexos, cruciais para o aprendizado profundo. Além disso, oferece um ecossistema rico como o cuDNN para redes neurais profundas, melhorando o desempenho e a facilidade de uso. É essencial para os desenvolvedores devido à sua integração perfeita com as principais estruturas de aprendizagem profunda, permitindo o rápido desenvolvimento e iteração de modelos.

A combinação de uma pilha de software program tão robusta com {hardware} altamente eficiente provou ser a chave para conquistar o mercado. Embora alguns argumentem que o domínio da Nvidia pode ser um fenômeno temporário, é difícil fazer tais previsões no cenário atual.

O pesado tributo do domínio da Nvidia

A vantagem da Nvidia no campo de desenvolvimento de aprendizado de máquina levantou inúmeras preocupações, não apenas no domínio ético, mas também em relação às crescentes disparidades orçamentárias de pesquisa e desenvolvimento, que são uma das razões pelas quais entrar no mercado se tornou exponencialmente mais difícil. para jogadores menores, muito menos para startups. Acrescente-se o declínio no interesse dos investidores devido a riscos mais elevados, e a tarefa de adquirir investimentos pesados ​​em I&D (como os da Nvidia) torna-se completamente impossível, criando um campo de jogo muito, muito desigual.

No entanto, esta forte dependência do {hardware} da Nvidia coloca ainda mais pressão sobre a consistência da cadeia de abastecimento e abre o risco de interrupções e aprisionamento de fornecedores, reduzindo a flexibilidade do mercado e aumentando as barreiras à entrada no mercado.

Alguns estão juntando dinheiro para garantir que não deixarão os usuários em apuros. Em todos os lugares, termos de engenharia como “otimização” e “modelo menor” estão em voga à medida que as empresas tentam reduzir suas necessidades de GPU, e os investidores este ano apostaram centenas de milhões de dólares em startups cujo software program ajuda as empresas a se contentarem com as GPUs que usam. eu tenho.

A escassez de chips da Nvidia deixa as startups de IA lutando por poder de computação Por Paresh Dave

Agora é a hora de adotar abordagens estratégicas, pois isso pode ser exatamente o que dará à sua empresa an opportunity de prosperar em meio à influência de longo alcance da Nvidia no desenvolvimento de ML.

Estratégias que os jogadores que não são grandes empresas de tecnologia podem se adaptar ao domínio da Nvidia:

1. Comece a explorar o RocM da AMD

A AMD tem estreitado ativamente sua lacuna de desenvolvimento de IA com a NVIDIA, um feito alcançado por meio de seu suporte consistente ao Rocm nas principais bibliotecas do PyTorch no ano passado. Este esforço contínuo resultou em melhor compatibilidade e desempenho, evidenciados com destaque pelo chipset MI300, o lançamento mais recente da AMD. O MI300 demonstrou desempenho robusto em tarefas de inferência de Massive Language Mannequin (LLM), destacando-se particularmente com modelos como LLama-70b. Este sucesso ressalta os avanços significativos no poder de processamento e na eficiência alcançados pela AMD.

2. Encontre outras alternativas de {hardware}

Além dos avanços da AMD, o Google introduziu Unidades de Processamento Tensor (TPUs), {hardware} especializado projetado explicitamente para acelerar cargas de trabalho de aprendizado de máquina, oferecendo uma alternativa robusta para treinar modelos de IA em grande escala.

Além desses gigantes da indústria, gamers menores, porém impactantes, como Graphcore e Cerebras estão fazendo contribuições notáveis ​​para o espaço de {hardware} de IA. A Unidade de Processamento de Inteligência (IPU) da Graphcore, adaptada para eficiência em cálculos de IA, atraiu atenção por seu potencial em tarefas de alto desempenho, conforme demonstrado pela experimentação do Twitter. A Cerebras, por outro lado, está ultrapassando limites com seus chips avançados, enfatizando a escalabilidade e o poder computacional bruto para aplicações de IA.

Os esforços coletivos destas empresas significam uma mudança em direção a um ecossistema de {hardware} de IA mais diversificado. Essa diversificação apresenta estratégias viáveis ​​para reduzir a dependência da NVIDIA, proporcionando aos desenvolvedores e pesquisadores uma gama mais ampla de plataformas para o desenvolvimento de IA.

3. Comece a investir na otimização de desempenho

Além de explorar alternativas de {hardware}, a otimização do software program prova ser um fator essential para diminuir o impacto do domínio da Nvidia. Ao utilizar algoritmos eficientes, reduzir cálculos desnecessários e implementar técnicas de processamento paralelo, os participantes não grandes da tecnologia podem maximizar o desempenho de seus modelos de ML no {hardware} existente, oferecendo uma abordagem pragmática para preencher a lacuna sem depender apenas de atualizações caras de {hardware}.

Uma ilustração dessa abordagem é encontrada na tecnologia AutoNAC da Deci Ai. Esta inovação demonstrou a capacidade de acelerar a inferência de modelos por um fator impressionante de 3 a ten vezes, conforme comprovado pelo amplamente reconhecido MLPerf Benchmark. Ao apresentar tais avanços, torna-se evidente que a otimização de software program pode aumentar significativamente a eficiência do desenvolvimento de ML, apresentando uma alternativa viável para mitigar a influência do domínio da Nvidia no campo.

4. Comece a colaborar com outras organizações para criar clusters descentralizados

Esta abordagem colaborativa pode envolver a partilha de resultados de investigação, o investimento conjunto em opções alternativas de {hardware} e a promoção do desenvolvimento de novas tecnologias de ML através de projetos de código aberto. Ao descentralizar a inferência e utilizar recursos de computação distribuídos, os pequenos participantes da tecnologia podem nivelar o campo de atuação e criar um cenário mais competitivo na indústria de desenvolvimento de ML.

Hoje, a estratégia de partilha de recursos computacionais está a ganhar impulso em toda a indústria tecnológica. O Google Kubernetes Engine (GKE) exemplifica isso ao oferecer suporte à multilocação de cluster, permitindo a utilização eficiente de recursos e a integração com serviços de terceiros. Esta tendência é ainda evidenciada por iniciativas lideradas pela comunidade, como Petals, que oferece uma rede distribuída para executar modelos de IA, tornando a computação de alta potência acessível sem investimento significativo. Além disso, plataformas como Collectively.ai fornecem acesso sem servidor a uma ampla gama de modelos de código aberto, agilizando o desenvolvimento e promovendo a colaboração. Considerar tais plataformas pode permitir o acesso a recursos computacionais e oportunidades de desenvolvimento colaborativo, ajudando a otimizar seu processo de desenvolvimento e reduzir custos, independentemente do tamanho da organização.

Conclusão

À escala world, torna-se evidente a necessidade das estratégias acima mencionadas. Quando uma entidade domina o mercado, isso sufoca o desenvolvimento e dificulta o estabelecimento de preços razoáveis.

Os não grandes gamers de tecnologia podem combater o domínio da Nvidia explorando alternativas como o RocM da AMD, investindo na otimização de desempenho por meio de algoritmos eficientes e processamento paralelo e promovendo a colaboração com outras organizações para criar clusters descentralizados. Isto promove um cenário mais diversificado e competitivo na indústria de {hardware} e desenvolvimento de IA, permitindo que pequenos participantes tenham uma palavra a dizer no futuro do desenvolvimento de IA.

Estas estratégias visam diminuir a dependência dos preços e fornecimentos da Nvidia, aumentando assim o apelo ao investimento, minimizando o risco de desaceleração do desenvolvimento de negócios em meio à concorrência de {hardware} e promovendo o crescimento orgânico em toda a indústria.

Unite AI Mobile Newsletter 1

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button