A Hugging Face lançou os Inference Providers, uma nova funcionalidade que permite aos programadores correr modelos AI em serviços cloud externos.
Até agora, a Hugging Face, uma das principais plataformas de desenvolvimento de AI, oferecia a sua própria infraestrutura para executar modelos AI, mas a empresa está a mudar o foco para a colaboração, armazenamento e distribuição de modelos. A empresa diz que se está no momento certo para oferecer acesso simplificado a soluções cloud externas. Isto permite aos seus utilizadores e clientes aceder de forma rápida a modelos AI e dimensioná-los de acordo com as suas necessidades, sem terem que se preocupar com as questões de hardware.
Com parceiros como SambaNova, Fal, Replicate e Together AI, esta atualização dá mais liberdade na escolha da infraestrutura de computação. Os modelos podem ser lançados diretamente a partir de uma página de projecto no Hugging Face com apenas alguns cliques.
Por agora, os programadores que usarem clouds externas através da Hugging Face pagarão os preços normais das APIs dos fornecedores. No futuro, a empresa poderá estabelecer acordos de partilha de receitas com os parceiros. Além disso, todos os utilizadores recebem um pequeno crédito gratuito para inferência, enquanto os subscritores do Hugging Face Pro têm um bónus mensal de 2 dólares em créditos.
Fundada em 2016 como uma startup de chatbots, a Hugging Face tornou-se uma das maiores plataformas de alojamento e desenvolvimento de modelos de IA. Com esta nova funcionalidade, reforça a sua aposta em tornar a implementação de modelos AI mais acessível para todos.
Subscrever:
Enviar feedback (Atom)
este é o caminho. altamente
ResponderEliminarUma empresa europeia. E absolutamente líder na IA. Não, não é só tampas.
ResponderEliminar