A OpenAI apresentou a nova geração do seu sistema AI, o GPT-4, que tem capacidade para compreender texto e também imagens.
Depois do sucesso do ChatGPT, que utiliza o GPT-3.5, era com muita ansiedade que se aguardava pelo que viria a seguir. É isso que a OpenAI agora apresentou oficialmente, o seu GPT-4, mas que na verdade já estava a ser usado para o Bing AI da Microsoft.
A evolução não é revolucionária face à geração anterior, mas apresenta resultados melhores, especialmente quando lida com questões de maior complexidade. A OpenAI refere que, enquanto o GPT-3.5 conseguia passar um exame de direito ficando entre os 10% dos piores classificados, o GPT-4 consegue posicionar-se entre os 10% dos melhores classficados. A maior diferença é que, enquanto o GPT-3.5 apenas aceitava inputs de texto, o GPT-4 tem capacidade para analisar imagens. Algo que por por agora será usado pela app de assistência visual Be My Eyes, para auxiliar pessoas cegas ou com visibilidade reduzida a identificarem todo o tipo de coisas através da câmara do seu smartphone - uma tarefa que anteriormente era feita por voluntários humanos.
A parte da visão ainda fica limitada a parceiros autorizados, mas o GPT-4 fica disponível para todos os interessados através do ChatGPT Plus (pago), com custo de $0.03 por 1000 prompt tokens (cerca de 750 palavras) e $0.06 por 1000 completion tokens (os resultados gerados).
Subscrever:
Enviar feedback (Atom)
Sem comentários:
Enviar um comentário (problemas a comentar?)