A Google apresentou-nos o LaMDA o ano passado, prometendo um assistente digital que seria bastante mais inteligente que os assistentes básicos actuais. Apesar de ainda não estar disponível para todos, há quem esteja bastante impressionado com o seu funcionamento, ao ponto de dizer que esta A.I. atingiu a auto-consciência. Algo que, como seria de esperar, recebeu um coro de críticas.
Apesar do sistema proporcionar um enorme avanço face aos assistentes actuais - em que basta escapar um pouco à linha principal de perguntas ou comandos básicos para que se revelem como sendo extremamente "burros" - é preciso relembrar que se tratam de sistemas que continuam a estar longe da verdadeira compreensão do que dizem ou do que lhes é dito. O que fazem, e extremamente bem, é pegar nos biliões de exemplos que foram usados para os treinar, para replicarem o tipo de conversa que seria feito por uma pessoa real. Mesmo sendo impressionantes, estamos ainda muito longe da tal auto-consciência que nos obrigará a ter preocupações acrescidas com as AIs.
Foundation models are incredibly effective at stringing together statistically plausible chunks of text in response to prompts.
— Erik Brynjolfsson (@erikbryn) June 12, 2022
But to claim they are sentient is the modern equivalent of the dog who heard a voice from a gramophone and thought his master was inside. #AI #LaMDA pic.twitter.com/s8hIKEplhF
Isto não desvaloriza o trabalho feito, com projectos como o Imagen da Google a fazer coisas quase inacreditáveis; pelo contrário, deverá ser visto como um elogio, que nos deixa num ponto em que estes sistemas já serão capazes de parecer verdadeiramente inteligentes. Mas com isto, surge também uma questão: será que, quando estes sistemas forem disponibilizados em larga escala, por exemplo, via Google Assistant, teremos milhares de pessoas que também poderão ser levadas a acreditar que o seu smartphone passou a ser "inteligente"?
Sem comentários:
Enviar um comentário (problemas a comentar?)