Tech

GPT-4o Mini revelado: uma alternativa econômica e de alto desempenho para Claude Haiku, Gemini Flash e GPT 3.5 Turbo

A OpenAI, líder em dimensionamento de modelos Generative Pre-trained Transformer (GPT), agora introduziu o GPT-4o Mini, mudando para soluções de IA mais compactas. Essa mudança aborda os desafios da IA ​​em larga escala, incluindo altos custos e treinamento intensivo em energia, e posiciona a OpenAI para competir com rivais como Google e Claude. O GPT-4o Mini oferece uma abordagem mais eficiente e acessível para IA multimodal. Este artigo explorará o que diferencia o GPT-4o Mini comparando-o com o Claude Haiku, Gemini Flash e o GPT-3.5 Turbo da OpenAI. Avaliaremos esses modelos com base em seis fatores principais: suporte de modalidade, desempenho, janela de contexto, velocidade de processamento, preço e acessibilidade, que são cruciais para selecionar o modelo de IA certo para várias aplicações.

Revelando o GPT-4o Mini:

O GPT-4o Mini é um modelo de IA multimodal compacto com recursos de inteligência de texto e visão. Embora a OpenAI não tenha compartilhado detalhes específicos sobre seu método de desenvolvimento, o GPT-4o Mini se baseia na fundação da série GPT. Ele foi projetado para aplicativos econômicos e de baixa latência. O GPT-4o Mini é útil para tarefas que exigem encadeamento ou paralelização de várias chamadas de modelo, manuseio de grandes volumes de contexto e fornecimento de respostas de texto rápidas e em tempo actual. Esses recursos são particularmente vitais para a construção de aplicativos como sistemas de geração de aumento de recuperação (RAG) e chatbots.

Os principais recursos do GPT-4o Mini incluem:

  • Uma janela de contexto de 128K tokens
  • Suporte para até 16K tokens de saída por solicitação
  • Melhoria no tratamento de texto não inglês
  • Conhecimento até outubro de 2023

GPT-4o Mini vs. Claude Haiku vs. Gemini Flash: Uma comparação de pequenos modelos de IA multimodais

Esta seção compara o GPT-4o Mini com dois pequenos modelos de IA multimodais existentes: Claude Haiku e Gemini Flash. Claude Haiku, lançado pela Anthropic em março de 2024, e Gemini Flash, introduzido pelo Google em dezembro de 2023 com uma versão atualizada 1.5 lançada em maio de 2024, são concorrentes significativos.

  • Suporte de Modalidade: Tanto o GPT-4o Mini quanto o Claude Haiku atualmente suportam recursos de texto e imagem. A OpenAI planeja adicionar suporte a áudio e vídeo no futuro. Em contraste, o Gemini Flash já suporta texto, imagem, vídeo e áudio.
  • Desempenho: Pesquisadores da OpenAI compararam o GPT-4o Mini com o Gemini Flash e o Claude Haiku em várias métricas importantes. O GPT-4o Mini supera consistentemente seus rivais. Em tarefas de raciocínio envolvendo texto e visão, o GPT-4o Mini obteve 82,0% no MMLU, superando os 77,9% do Gemini Flash e os 73,8% do Claude Haiku. O GPT-4o Mini obteve 87,0% em matemática e codificação no MGSM, em comparação com os 75,5% do Gemini Flash e os 71,7% do Claude Haiku. No HumanEval, que mede o desempenho da codificação, o GPT-4o Mini obteve 87,2%, à frente do Gemini Flash com 71,5% e do Claude Haiku com 75,9%. Além disso, o GPT-4o Mini se destaca no raciocínio multimodal, obtendo 59,4% no MMMU, em comparação com 56,1% do Gemini Flash e 50,2% do Claude Haiku.
  • Janela de contexto: Uma janela de contexto maior permite que um modelo forneça respostas coerentes e detalhadas sobre passagens estendidas. O GPT-4o Mini oferece uma capacidade de token de 128K e suporta até 16K tokens de saída por solicitação. O Claude Haiku tem uma janela de contexto maior de 200K tokens, mas retorna menos tokens por solicitação, com um máximo de 4096 tokens. O Gemini Flash ostenta uma janela de contexto significativamente maior de 1 milhão de tokens. Portanto, o Gemini Flash tem uma vantagem sobre o GPT-4o Mini em relação à janela de contexto.
  • Velocidade de processamento: O GPT-4o Mini é mais rápido que os outros modelos. Ele processa 15 milhões de tokens por minuto, enquanto o Claude Haiku processa 1,26 milhões de tokens por minuto, e o Gemini Flash processa 4 milhões de tokens por minuto.
  • Preços: O GPT-4o Mini é mais econômico, custando 15 centavos por milhão de tokens de entrada e 60 centavos por um milhão de tokens de saída. O Claude Haiku custa 25 centavos por milhão de tokens de entrada e US$ 1,25 por milhão de tokens de resposta. O Gemini Flash custa 35 centavos por milhão de tokens de entrada e US$ 1,05 por milhão de tokens de saída.
  • Acessibilidade: O GPT-4o Mini pode ser acessado por meio da API Assistants, API Chat Completions e API Batch. O Claude Haiku está disponível por meio de uma assinatura do Claude Professional no claude.ai, sua API, Amazon Bedrock e Google Cloud Vertex AI. O Gemini Flash pode ser acessado no Google AI Studio e integrado a aplicativos por meio da API do Google, com disponibilidade adicional no Google Cloud Vertex AI.

Nesta comparação, o GPT-4o Mini se destaca pelo seu desempenho equilibrado, custo-benefício e velocidade, o que o torna um forte concorrente no cenário de pequenos modelos de IA multimodal.

GPT-4o Mini vs. GPT-3.5 Turbo: Uma comparação detalhada

Esta seção compara o GPT-4o Mini com o GPT-3.5 Turbo, o modelo de IA multimodal amplamente utilizado pela OpenAI.

  • Tamanho: Embora a OpenAI não tenha divulgado o número exato de parâmetros para GPT-4o Mini e GPT-3.5 Turbo, sabe-se que GPT-3.5 Turbo é classificado como um grande modelo multimodal, enquanto GPT-4o Mini se enquadra na categoria de pequenos modelos multimodais. Isso significa que GPT-4o Mini requer significativamente menos recursos computacionais do que GPT-3.5 Turbo.
  • Suporte de Modalidade: GPT-4o Mini e GPT-3.5 Turbo suportam tarefas relacionadas a texto e imagem.
  • Desempenho: O GPT-4o Mini mostra melhorias notáveis ​​sobre o GPT-3.5 Turbo em vários benchmarks, como MMLU, GPQA, DROP, MGSM, MATH, HumanEval, MMMU e MathVista. Ele tem melhor desempenho em inteligência textual e raciocínio multimodal, superando consistentemente o GPT-3.5 Turbo.
  • Janela de contexto: O GPT-4o Mini oferece uma janela de contexto muito maior do que a capacidade de 16K tokens do GPT-3.5 Turbo, permitindo que ele manipule textos mais extensos e forneça respostas detalhadas e coerentes em passagens mais longas.
  • Velocidade de processamento: O GPT-4o Mini processa tokens a uma taxa impressionante de 15 milhões de tokens por minuto, superando em muito os 4.650 tokens por minuto do GPT-3.5 Turbo.
  • Preço: O GPT-4o Mini também é mais econômico, mais de 60% mais barato que o GPT-3.5 Turbo. Ele custa 15 centavos por milhão de tokens de entrada e 60 centavos por milhão de tokens de saída, enquanto o GPT-3.5 Turbo tem preço de 50 centavos por milhão de tokens de entrada e US$ 1,50 por milhão de tokens de saída.
  • Capacidades adicionais: O OpenAI destaca que o GPT-4o Mini supera o GPT-3.5 Turbo em chamadas de função, permitindo uma integração mais suave com sistemas externos. Além disso, seu desempenho aprimorado de longo contexto o torna uma ferramenta mais eficiente e versátil para vários aplicativos de IA.

A linha de fundo

A introdução do GPT-4o Mini pela OpenAI representa uma mudança estratégica em direção a soluções de IA mais compactas e econômicas. Este modelo aborda efetivamente os desafios de altos custos operacionais e consumo de energia associados a sistemas de IA em larga escala. O GPT-4o Mini se destaca em desempenho, velocidade de processamento e acessibilidade em comparação a concorrentes como Claude Haiku e Gemini Flash. Ele também demonstra capacidades superiores sobre o GPT-3.5 Turbo, com vantagens notáveis ​​em tratamento de contexto e eficiência de custos. A funcionalidade aprimorada e a aplicação versátil do GPT-4o Mini o tornam uma escolha forte para desenvolvedores que buscam IA multimodal de alto desempenho.

Unite AI Mobile Newsletter 1

Artigos relacionados

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button