2023/01/20

Siri com ChatGPT mostra o controlo de casa com inteligência

A potência do ChatGPT pode ser aproveitada pela Siri usando automações, e antecipando o que serão os assistentes AI no futuro.

A chegada do ChatGPT veio demonstrar-nos como os nossos assistentes digitais têm estado parados no tempo e são, na realidade bastante "burros". E nada o demonstra melhor que este caso, em que usando um simples atalho de automação no iOS, se pode adicionar a inteligência do ChatGPT aos pedidos da Siri para efeitos de controlo da casa (e não só).

Em vez de se limitar a perceber comandos básicos como "acende a luz do escritório", com este sistema um pedido do estilo "estou a gravar um vídeo no escritório e está bastante escuro, podes fazer algo quanto isso?" resulta na compreensão do que se pretende, acendo a luz da divisão correcta. Algo como "Mandei o meu filho para a cama para ler durante 20 minutos, podes apagar as luzes no quarto dele quando for altura de dormir?" também resulta no agendamento de apagar as luzes no quarto no final do tempo indicado.


Mais impressionante é que, do lado do ChatGPT, não temos nenhuma programação tradicional, mas simplesmente uma explicação em texto de que ser quer o assistente funcione como o "cérebro" de uma casa inteligente, e que envie as respostas em formato JSON seguindo as indicações dadas!

Tudo isto pode ser replicado por qualquer pessoa hoje mesmo, bastando registar-se no ChatGPT para ter uma chave para a sua API. No entanto, ter em conta que o serviço é pago, custando cerca de $0.014 por pedido (cerca de 70 pedidos por $1).

Se um developer sozinho demonstra como isto pode ser feito em poucos minutos, do que está a Apple à espera para nos apresentar a Siri 2.0 com este tipo de capacidades?

3 comentários:

  1. Parece que a Google vai ter um futuro muito difícil.
    Aperece a Intel andou a brincar agora...

    ResponderEliminar
    Respostas
    1. O google não andou a brincar, inclusivé tem um motor de conversação chamado LaMDA baseado na mesma tecnologia de modelos de ML que o ChatGPT usa que é GPT 3.5, existem diferenças no entanto, o ChatGPT foi treinado em dados da web e usaram supervised learning para fazer uma afinação para o uso como chatbot, enquanto que o LaMDA foi treinado em diálogos, sendo melhor a dialogar que o ChatGPT mas com conhecimento menos vasto, digamos. Já a referência à Intel não percebo bem onde se enquadra...

      Eliminar
    2. Fica o link para alguns chatbots LaMDA: https://beta.character.ai/

      Eliminar

[pub]