2024/05/29

Modelos AI falham nos números aleatórios tal como os humanos

Os modelos AI parecem imitar demasiado os humanos, até no momento de escolher números aleatórios.

Ninguém põe em causa a capacidade do cérebro humano, mas há tarefas para o qual está mal equipado. A nossa tendência para ver tudo em padrões faz com que sejamos terríveis a escolher números aleatórios, havendo certos números que acabam por ser escolhidos muito mais que outros (falamos recentemente do caso do 37). E um teste feito a diversos modelos AI revela uma inesperada tendência idêntica.

Tal como acontece com os humanos, também os modelos AI têm números aleatórios preferidos quando se lhes pede por um número de 0 a 100.
O GPT-3.5 Turbo da OpenAI prefere o 47 (numa versão anterior dava preferência ao 42). O Claude 3 da Anthropic mantém-se com a preferência do 42. E o Gemini da Google dá prioridade ao 72.

Alguns dos modelos parecem também ter números "proibidos" que nunca escolhem, como nada de dígitos repetidos (22, 33, 44, etc. - com excepção do 77), números nunca abaixo de 27 ou acima de 87, e também raramente números terminados em 0.

É certo que estes modelos AI estão longe de se tornarem auto-conscientes e verdadeiramente inteligentes mas, neste caso, mostram o ponto negativo de aprenderem com exemplos dados por humanos, sendo que nesse processo acabam por também apanhar as nossas falhas e vícios.

1 comentário:

  1. As capacidades destes modelos são amplamente sobre-estimadas, eles limitam-se a tentar adivinhar qual a "palavra" (token) seguinte dado um conjunto de palavras. Estes modelos são treinados em texto criado por humanos, logo estes modelos vão gerar conteúdos de forma enviesada, não tem qualquer capacidade de raciocínio, consciência, planeamento, ou julgamento. Podem parecer que tem, mas não passa disso. Todavia, esta experiência com números aleatórios dá-nos uma conclusão interessante, mas não inesperada.

    ResponderEliminar