O mais modelo GPT-4.5 da OpenAI conseguiu enganar pessoas no teste de Turing, que consideraram o modelo AI como sendo a pessoa real.
O Teste de Turing é considerado como um marco dos sistemas de inteligência artifical, sendo superado quando, uma pessoa humana, a conversar com uma AI, não a conseguir diferenciar de uma pessoal real. Neste caso, trata-se de um teste a três, em que uma pessoa (C) tem que interagir com dois participantes (A e B), e tem que identificar qual deles é a pessoa real e qual é um assistente AI.
Segundo investigadores da University of California San Diego (UCSD), há dois modelos AI que já conseguem superar o teste, sendo votados como sendo a pessoa verdadeira: o GPT-4.5 da OpenAI e o LLaMa-3.1 da Meta.
No entanto o modelo da Meta apenas conseguiu superar o teste num dos casos, com 56% de sucesso; enquanto o GPT-4.5 conseguiu superar o teste em todos os cenários - embora necessitando de ser instruído sobre como se comportar - com uma pontuação máxima de 73%!
Nas variantes bases, os modelos AI apenas eram instruídos de forma mínima, dizendo que iam participar num teste de Turing e que tinham como objectivo convencer uma pessoa de que eram humanos. Nas variantes "Persona" recebiam instruções adicionais sobre como se deveriam comportar, adoptando uma "personalidade" de uma pessoa jovem e introvertida, com conhecimento da internet e que utilizaria "calão" popular adequado à sua idade. Foi esta variante que obteve mais sucesso a enganar as pessoas.
Não deixará de ser curioso que até sistemas AI mais básicos, como o ELIZA, tenham conseguido, ainda assim, enganar as pessoas cerca de 20-25% das vezes - o que pode colocar algumas dúvidas quanto às capacidades dos humanos que estavam a ser testados! :)
Ainda vamos acabar por ter testes de Turing invertidos, em que teremos os humanos a tentar convencer um bot AI de que são efectivamente pessoas reais.
2025/04/04
Subscrever:
Enviar feedback (Atom)
Sem comentários:
Enviar um comentário (problemas a comentar?)