Apesar das respostas disparatadas, a Google veio defender o seu sistema de resumos AI às pesquisas.
A Google adicionou um sistema de resumo AI nas respostas do seu motor de pesquisa, e não demorou para que começassem a surgir casos ridículos, que iam da sugestão de colocar cola nas pizzas, comer pedras diariamente, ou até de saltar de uma ponte para quem se sentisse deprimido. Respostas que depressa se descobriram ter origem em comentários sarcásticos do Reddit, ou de sites com conteúdos cómicos.
O caso adquiriu atenção suficiente para que a Google viesse fazer um esclarecimento público em defesa do sistema. A Google diz que estes resultados se referem a uma ínfima e negligenciável percentagem das pesquisas, e que nalguns casos até se tratam de respostas falsas que foram criadas para piorar a imagem da Google. No entanto, também reconhece que o sistema tem dificuldades em separar conteúdos real de conteúdo satírico, sendo algo que tentado melhorar.
É certo que, em qualquer pesquisa, sempre se esteve sujeito a ser atirado para sites ou informação que poderia não ser a mais correcta. E nestes resumos AI temos precisamente o mesmo problema. A grande diferença é que enquanto a apresentação de uma lista de sites implica, implicitamente, que a pessoa os visite e avalie a sua credibilidade, nos resumos AI temos a infeliz postura de que os modelos AI falam com total convicção de que o dizem está correcto, mesmo quando estão completamente errados.
Na prática, acaba por ser quase equivalente ao que se assiste no FSD da Tesla, em que o sistema funciona bem 99% das vezes mas exige que o condutor esteja pronto a tomar o controlo de forma imediata em 1% dos casos; e aqui também podemos ter respostas AI que estão bem 99% das vezes, mas que o utilizador deverá ter conhecimento suficiente sobre tudo o que pesquisa, para detectar o 1% em que sejam dadas respostas erradas.
2024/05/31
Subscrever:
Enviar feedback (Atom)
Só uma palavra para descrever o que nos querem impingir como sendo bom: miséria.
ResponderEliminar