A Meta não quer ficar de fora da corrida AI que tem sido dominada pelo ChatGPT da OpenAI, e disponibiliza o seu modelo LLaMA com 65 mil milhões de parâmetros.
Os LLMs (Large Language Models) têm dado bastante que falar, em grande parte devido ao mediatismo que tem sido conseguido com o ChatGPT, e que tem sido aproveitado ao máximo por empresas como a Microsoft, que já o está a aplicar no Bing, Edge e outros produtos. Neste caso, a Meta não disponibiliza um concorrente directo ao ChatGPT - no sentido de ser algo pronto a funcionar e com os quais os utilizadores podem interagir - mas sim os ingredientes para criar uma alternativa: modelos de linguagem com milhares de milhões de parâmetros.
O LLaMA da Meta chega em quatro variantes: com 7, 13, 33, e 65 mil milhões de parâmetros, treinados a partir de 1 bilião de tokens no modelo mais pequeno e 1.4 biliões de tokens nos dois maiores. Apesar de ficarem abaixo de alguns modelos de outras empresas, a Meta diz que o seu modelo LLaMA-13B funciona melhor que o do GPT-3 com 175B de parâmetros, e que o seu modelo LLaMA-65B é capaz de competir com o Chinchilla70B da DeepMind e o PaLM da Google que tem 540 mil milhões de parâmetros. Em qualquer um dos casos, serão também suficientes para competir com o ChatGPT, que conta com "apenas" 20 mil milhões de parâmetros mas estando optimizado para a conversação.
No entanto, por agora é algo que mais parece uma tentativa da Meta demonstrar que está presente nesta área de investigação, já que estes modelos ficarão apenas disponíveis para uso não comercial e de investigação, sendo disponibilizados caso a caso a universidades, laboratórios, etc.
Subscrever:
Enviar feedback (Atom)
Este sim, bem melhor: https://arxiv.org/pdf/2302.00923.pdf
ResponderEliminar