A Meta tem novo modelo AI - CM3Leon - capaz de gerar imagens a partir de texto de forma mais eficiente que o Dall-E e Stable Diffusion.
A Meta tem tentado manter-se na linha da frente dos sistemas AI, com a vantagem adicional de, em muitos casos, disponibilizar esses modelos AI como open-source ou para uso livre. E agora, apresenta um novo modelo para geração de imagens que poderá potenciar uma transformação nos modelos existentes.
Ao contrário do Dall-E 2 e Stable Diffusion, o CM3Leon ("chameleon") utiliza o príncipio da "transformação" para a geração de imagens em vez do princípio da "difusão" usando pelos outros sistemas. A própria OpenAI já tinha explorado este tipo de modelo anteriormente, num Image GPT, antes de avançar para o Dall-E.
Além da geração de imagens, o CM3Leon também pode reconhecer os elementos da imagens e responder a perguntas, assim como aplicar transformações como "transforma o céu de azul para verde", ou "troca as árvores por postes de electricidade".
Os exemplos fornecidos dão vantagem ao CM3Leon face ao Dall-E 2, e este modelo AI tem a vantagem de ser mais eficiente e pequeno, o que potenciará a sua utilização local em smartphones e tablets sem as longas demoras associadas aos sistemas actuais. Infelizmente, este é um dos modelos que a Meta optou por não disponibilizar publicamente, nem sequer avançando com uma potencial data para que tal possa acontecer.
Subscrever:
Enviar feedback (Atom)
Sem comentários:
Enviar um comentário (problemas a comentar?)