Tech

Aproveitando o silício: como os chips internos estão moldando o futuro da IA

A inteligência synthetic, como qualquer software program, depende de dois componentes fundamentais: os programas de IA, muitas vezes referidos como modelos, e o {hardware} computacional, ou chips, que impulsionam esses programas. Até agora, o foco no desenvolvimento da IA ​​tem sido o refinamento dos modelos, enquanto o {hardware} period normalmente visto como um componente padrão fornecido por fornecedores terceirizados. Recentemente, no entanto, esta abordagem começou a mudar. Grandes empresas de IA, como Google, Meta e Amazon, começaram a desenvolver seus próprios chips de IA. O desenvolvimento interno de chips de IA personalizados está anunciando uma nova period no avanço da IA. Este artigo explorará as razões por trás desta mudança de abordagem e destacará os últimos desenvolvimentos nesta área em evolução.

Por que desenvolvimento interno de chips de IA?

A mudança para o desenvolvimento interno de chips de IA personalizados está sendo impulsionada por vários fatores críticos, que incluem:

Aumento da demanda por chips de IA

A criação e utilização de modelos de IA exige recursos computacionais significativos para lidar eficazmente com grandes volumes de dados e gerar previsões ou insights precisos. Os chips de computador tradicionais são incapazes de lidar com as demandas computacionais ao treinar em trilhões de pontos de dados. Esta limitação levou à criação de chips de IA de ponta, projetados especificamente para atender aos requisitos de alto desempenho e eficiência das aplicações modernas de IA. À medida que a pesquisa e o desenvolvimento de IA continuam a crescer, também aumenta a demanda por esses chips especializados.

A Nvidia, líder na produção de chips avançados de IA e bem à frente dos seus concorrentes, enfrenta desafios à medida que a procura excede em muito a sua capacidade de produção. Esta situação fez com que a lista de espera pelos chips de IA da Nvidia fosse estendida para vários meses, um atraso que continua a crescer à medida que a demanda por seus chips de IA aumenta. Além disso, o mercado de chips, que inclui grandes gamers como Nvidia e Intel, enfrenta desafios na produção de chips. Este problema decorre da dependência do fabricante taiwanês TSMC para montagem de chips. Essa dependência de um único fabricante leva a prazos de entrega prolongados para a fabricação desses chips avançados.

Tornando a computação de IA energeticamente eficiente e sustentável

A geração atual de chips de IA, projetados para tarefas computacionais pesadas, tende a consumir muita energia e gerar calor significativo. Isto levou a implicações ambientais substanciais para a formação e utilização de modelos de IA. Os investigadores da OpenAI observam que: desde 2012, o poder computacional necessário para treinar modelos avançados de IA duplicou a cada 3,4 meses, sugerindo que, até 2040, as emissões do sector das Tecnologias de Informação e Comunicação (TIC) poderão representar 14% das emissões globais. Outro estudo mostrou que treinar um único modelo de linguagem em grande escala pode emitir até 284.000 kg de CO2, o que equivale aproximadamente ao consumo de energia de cinco carros ao longo da sua vida útil. Além disso, estima-se que o consumo de energia dos centros de dados crescerá 28% até 2030. Estas conclusões sublinham a necessidade de encontrar um equilíbrio entre o desenvolvimento da IA ​​e a responsabilidade ambiental. Em resposta, muitas empresas de IA estão agora a investir no desenvolvimento de chips mais eficientes em termos energéticos, com o objetivo de tornar a formação e as operações de IA mais sustentáveis ​​e amigas do ambiente.

Adaptando Chips para Tarefas Especializadas

Diferentes processos de IA têm demandas computacionais variadas. Por exemplo, o treinamento de modelos de aprendizagem profunda requer poder computacional significativo e alto rendimento para lidar com grandes conjuntos de dados e executar cálculos complexos rapidamente. Os chips projetados para treinamento são otimizados para aprimorar essas operações, melhorando a velocidade e a eficiência. Por outro lado, o processo de inferência, onde um modelo aplica o conhecimento aprendido para fazer previsões, requer processamento rápido com uso mínimo de energia, especialmente em dispositivos de ponta, como smartphones e dispositivos IoT. Os chips para inferência são projetados para otimizar o desempenho por watt, garantindo capacidade de resposta imediata e conservação da bateria. Essa adaptação específica dos designs de chips para tarefas de treinamento e inferência permite que cada chip seja ajustado com precisão para a função pretendida, melhorando o desempenho em diferentes dispositivos e aplicações. Este tipo de especialização não só suporta funcionalidades de IA mais robustas, mas também promove uma maior eficiência energética e uma maior relação custo-eficácia em geral.

Reduzindo encargos financeiros

O encargo financeiro da computação para a formação e operações de modelos de IA continua a ser substancial. A OpenAI, por exemplo, usa um extenso supercomputador criado pela Microsoft para treinamento e inferência desde 2020. Custou à OpenAI cerca de US$ 12 milhões para treinar seu modelo GPT-3, e as despesas aumentaram para US$ 100 milhões para treinar GPT-4. De acordo com um relatório da SemiAnalysis, a OpenAI precisa de cerca de 3.617 servidores HGX A100, totalizando 28.936 GPUs, para suportar ChatGPT, elevando o custo médio por consulta para aproximadamente US$ 0,36. Com estes custos elevados em mente, Sam Altman, CEO da OpenAI, está supostamente à procura de investimentos significativos para construir uma rede mundial de instalações de produção de chips de IA, de acordo com um relatório da Bloomberg.

Aproveitando o controle e a inovação

Os chips de IA de terceiros geralmente apresentam limitações. As empresas que dependem desses chips podem se ver limitadas por soluções prontas para uso que não se alinham totalmente com seus modelos ou aplicativos exclusivos de IA. O desenvolvimento interno de chips permite a personalização sob medida para casos de uso específicos. Seja para carros autônomos ou dispositivos móveis, o controle do {hardware} permite que as empresas aproveitem totalmente seus algoritmos de IA. Chips personalizados podem aprimorar tarefas específicas, reduzir a latência e melhorar o desempenho geral.

Últimos avanços no desenvolvimento de chips AI

Esta seção analisa os últimos avanços feitos pelo Google, Meta e Amazon na construção de tecnologia de chips de IA.

Processadores Axion do Google

O Google tem progredido constantemente no campo da tecnologia de chips de IA desde a introdução da Unidade de Processamento Tensor (TPU) em 2015. Com base nesta base, o Google lançou recentemente os Processadores Axion, suas primeiras CPUs personalizadas projetadas especificamente para information facilities e IA. cargas de trabalho. Esses processadores são baseados na arquitetura Arm, conhecida por sua eficiência e design compacto. Os processadores Axion visam aumentar a eficiência do treinamento e inferência de IA baseados em CPU, mantendo a eficiência energética. Esse avanço também marca uma melhoria significativa no desempenho de diversas cargas de trabalho de uso geral, incluindo servidores net e de aplicativos, microsserviços em contêineres, bancos de dados de código aberto, caches na memória, mecanismos de análise de dados, processamento de mídia e muito mais.

MTIA da Meta

A Meta está avançando na tecnologia de chips de IA com seu Meta Coaching and Inference Accelerator (MTIA). Esta ferramenta foi projetada para aumentar a eficiência dos processos de treinamento e inferência, especialmente para algoritmos de classificação e recomendação. Recentemente, a Meta descreveu como o MTIA é uma parte basic de sua estratégia para fortalecer sua infraestrutura de IA além das GPUs. Inicialmente previsto para lançamento em 2025, a Meta já colocou em produção ambas as versões do MTIA, mostrando um ritmo mais rápido em seus planos de desenvolvimento de chips. Embora o MTIA atualmente se concentre no treinamento de certos tipos de algoritmos, o Meta pretende expandir seu uso para incluir o treinamento para IA generativa, como seus modelos de linguagem Llama.

Trainium e Inferentia da Amazon

Desde o lançamento de seu chip Nitro personalizado em 2013, a Amazon expandiu significativamente o desenvolvimento de chips de IA. A empresa revelou recentemente dois chips de IA inovadores, Trainium e Inferentia. Trainium foi projetado especificamente para aprimorar o treinamento de modelos de IA e deve ser incorporado ao EC2 UltraClusters. Esses clusters, capazes de hospedar até 100.000 chips, são otimizados para treinar modelos básicos e modelos de linguagem grandes com eficiência energética. O Inferentia, por outro lado, é adaptado para tarefas de inferência onde os modelos de IA são aplicados ativamente, concentrando-se na diminuição da latência e dos custos durante a inferência para melhor atender às necessidades de milhões de usuários que interagem com serviços alimentados por IA.

O resultado closing

O movimento em direção ao desenvolvimento interno de chips de IA personalizados por grandes empresas como Google, Microsoft e Amazon reflete uma mudança estratégica para atender às crescentes necessidades computacionais das tecnologias de IA. Esta tendência destaca a necessidade de soluções especificamente adaptadas para apoiar de forma eficiente modelos de IA, atendendo às demandas exclusivas desses sistemas avançados. À medida que a procura por chips de IA continua a crescer, é provável que os líderes da indústria, como a Nvidia, vejam um aumento significativo na avaliação de mercado, sublinhando o papel very important que os chips personalizados desempenham no avanço da inovação em IA. Ao criar os seus próprios chips, estes gigantes da tecnologia não estão apenas a melhorar o desempenho e a eficiência dos seus sistemas de IA, mas também a promover um futuro mais sustentável e económico. Esta evolução está a estabelecer novos padrões na indústria, impulsionando o progresso tecnológico e a vantagem competitiva num mercado world em rápida mudança.

Unite AI Mobile Newsletter 1

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button