2023/02/14

ChatGPT do Bing também dá erros com fartura

Depois do Bard da Google ter sido criticado por dar erros, também a AI do Bing começa a revelar as suas falhas.

Por muito impressionantes que sejam os assistentes estilo ChatGPT, a sua expansão a um público cada vez mais vasto vai também revelando as suas limitações. O Bard da Google foi criticado por ter dado erros mesmo nos exemplos dados durante a apresentação oficial, e agora é a vez do sistema de AI baseado no ChatGPT que a MS está a adicionar ao Bing e Edge.

Também pedidos feitos ao Bing dão erros factuais, por vezes assumindo valores errados ou "inventando-os", como por vezes se pode entrar em ciclos que demonstram a "teimosia" do sistema AI, como no caso seguinte, em que o assistente AI insistia que se está em 2022 apesar do utilizador assegurar que já estamos em 2023.
São erros que se podem considerar inevitáveis em algo que é uma nova tecnologia, e que permitirão melhorar as versões futuras. Até lá, importará que os utilizadores estejam conscientes destas limitações, e que ao estilo das coisas que lhes aparecem numa pesquisa na internet, nem tudo o que um assistente AI lhes disser será necessariamente 100% correcto.

Portanto, há que ter a devida cautela, especialmente quando se quiser fazer algum copy-paste directo de coisas produzidas por estas AI, especialmente se forem sobre tópicos que não se dominam, e que tornarão mais difícil a detecção de possíveis erros.

Como algumas pessoas têm alertado: pior do que uma ferramenta que não funciona, é uma ferramenta que funciona na maior parte das vezes, mas que de vez em em quando não funciona devidamente de forma que pode ser imperceptível para o utilizador.

Sem comentários:

Enviar um comentário (problemas a comentar?)

[pub]