2024/06/12

Google AI continua a recomendar cola na pizza por causa de artigos a criticar isso mesmo

A Google está a descobrir as dificuldades de treinar modelos AI com informação actual, continuando a fazer recomendações idiotas por causa de todos os artigos recentes a criticar essas respostas.

A Google começou a apresentar resultados AI às pesquisas dos utilizadores, e não demorou para que se descobrissem casos de respostas idiotas que tinham por base artigos satíricos ou descontextualizados, como a recomeção de comer pedras ou colocar cola nas pizzas. A Google removeu esses resultados manualmente e tentou desvalorizá-los, mas agora dá-se o caso de, mesmo tendo sido alertada para esta situação, continuar a cometer o mesmo erro.

Ao estilo das "bolhas" que auto-reforçam aquilo em que cada um opta por acreditar, também estas respostas idiotas do modelo AI da Google estão a ser reforçadas pelos próprios artigos que criticam estas respostas, fazendo com que o modelo AI continue a dar essas mesmas respostas. Ou seja, temos um ciclo vicioso de respostas idiotas que dão que falar e que reforçam essas mesmas respostas idiotas.
Não quer isto dizer que seja uma missão impossível. Modelos AI concorrentes, como o Perplexity.AI lidam com a questão de colocar cola na pizza da maneira correcta, dizendo que tal é profundamente desaconselhado e fazendo referência a toda esta situação que se gerou com os resultados AI da Google. E também o ChatGPT responde, de forma mais sucinta, que não se deve colocar cola em pizzas.
Mais do que tentar fazer remendos rápidos, importará que a Google analise os problemas de raiz que levam a este tipo de respostas. O risco é que, se desta vez as respostas idiotas podem ser facilmente detectadas, da próxima vez as respostas podem ser bastante mais subtis e difíceis de detectar; e se o sistema considera que a chamada de atenção para esses erros funciona como forma de os reforçar, então arriscamos-nos a entrar numa espiral de idiotice da qual poderá ser impossível sair.

1 comentário: