2016/03/24

Chat bot Tay da Microsoft suspenso após se ter tornado "racista"


A Microsoft lançou ontem um chat bot chamado Tay, recorrendo a inteligência artificial para ir aprendendo com a interacção com as pessoas. Infelizmente, parece não lhe ter dado a inteligência para distinguir entres as boas e más companhias.

A ideia da Tay era bastante interessante, disponibilizando um chat bot com uma postura mais jovial, tentando simular o de uma jovem extrovertida. Mas a sua simpatia rapidamente foi desviada para tendências mais perversas, com respostas racistas e inflamatórias sobre temas mais polémicos.

Resta relembrar que o problema não é da "Tay" em si, mas simplesmente do sistema de inteligência artificial que tem por trás, e que estava concebido para ir aprendendo com as suas interacções. Sendo a internet um local onde, como sabemos, existe de tudo, não demorou para que várias pessoas (ou grupos) tenham decidido subverter o sistema e fazer que essa inteligência artificial aprendesse coisas indesejadas. (Actualização: como algumas pessoas "desensinaram" a Tay.)

O caso não é grave - para além do ligeiro embaraço que poderá causar à Microsoft - mas servirá para relembrar algo que será inevitável no desenvolvimento das inteligências artificiais e assistentes digitais: a de que todos estes sistemas irão ser sujeitos a todo o tipo de abusos, que poderão fazer com que o seu funcionamento acabe por ser bem diferente daquele que seria suposto. Neste caso o problema não está na inteligência artificial... mas na (má) utilização da inteligência humana. :P

2 comentários:

  1. A IA apenas aprendeu com os seres humanos, claramente mostra como é o ser humano, ainda temos muito que evoluir para ser uma sociedade avançada e civilizada.

    ResponderEliminar

[pub]