2019/01/07
AI de conversão de mapas da Google aprendeu a fazer batota
Nos últimos anos temos assistido à aplicação de Inteligência Artificial para tudo, mas nem sempre os resultados são aqueles que se esperam, como uma equipa do Google Maps descobriu.
O caso remonta a 2017 mas continua a ser tão curioso hoje como o foi na altura. Para acelerar o processo de criação dos mapas, a Google decidiu recorrer a um sistema de inteligência artificial que tinha por objectivo olhar para fotografias aéreas e convertê-las em representação cartográfica das estradas, edifícios e outras áreas de interesse. Algo que o sistema até conseguia fazer surpreendentemente bem.
Tão bem que a equipa decidiu investigar um pouco mais de perto o processo. O problema com os sistemas de redes neuronais é que, para além de lhes darmos milhares ou milhões de exemplos para "aprenderem", pouco ou nada sabemos quanto a que o sistema está realmente a "pensar" (não no sentido cognitivo, mas no sentido de processamento dos dados).
Para tentarem perceber um pouco mais do que estaria a fazer, a equipa decidiu pedir ao sistema para fazer o trabalho inverso, de converter a imagem dos mapas em fotografias aéreas novamente... e foi aí que descobriram um grande mistério:
O sistema estava a conseguir recriar fotos aéreas com detalhes que seria impossível saber a partir das imagens simplificadas dos mapas. Imagens no mapa de estradas e parques davam origem a áreas com carros nos locais certos; telhados "planos" de edifícios recuperavam milagrosamente janelas e outras estruturas, etc. etc.
O que se veio a descobrir foi que o sistema não estava apenas a criar as supostas imagens dos mapas, mas incluía também informação escondida sobre as fotos originais.
Essa diferença tornava-se evidente quando se comparava o resultado do sistema com uma imagem do mapa tal como seria esperado; e que revelava diferenças de tonalidade imperceptíveis nos pixeis, que permitiam reconstruir as fotos aéreas originais. No fundo, em vez de se limitar a criar os mapas, o sistema aprendeu a fazer batota e a esconder a imagem original na imagem que deveria ser um mapa "limpo".
Não é algo que o sistema tenha feito por "maldade" ou com qualquer propósito secundário; mas que serve para mostrar que, quando se quer ensinar uma máquina usando exemplos, nem sempre aquilo que ela aprende é aquilo que nós queremos ou que pensamos que ela aprendeu. No fundo... demonstra a pouca inteligência que as nossas inteligências artificiais têm.
Subscrever:
Enviar feedback (Atom)
Ui, ainda vai ter muito que aprender para chegar à batota sofisticada da inteligência natural.
ResponderEliminarEntão quando se trata de trabalhar o menos possível ...
Não concordo nada com a ultima frase.... acho completamente genial o facto de a IA ter "pensado" ou "ter chegado à conclusão" em guardar pixeis nas imagens planas para poder reconstruir as imagens originais.
ResponderEliminar