O CEO do Instagram, Adam Mosseri, entra em 2026 com o aviso de que já não podemos confiar nos nossos olhos para distinguir o que é real do que é falso nas plataformas online.
Segundo Mosseri, a evolução rápida das tecnologias AI está a tornar cada vez mais fácil criar imagens e vídeos totalmente convincentes, obrigando tudo e todos - utilizadores e plataformas - a manterem uma postura de cepticismo.
À semelhança de todos nós, Mosseri relembra que, durante grande parte da sua vida, uma fotografia era vista como um registo fiel da realidade - mas que esse tempo acabou. Com deepfakes e geração de imagens cada vez mais realistas, o pressuposto passa a ser o contrário: desconfiar primeiro, perceber quem está a publicar, e porquê. Para ele, esta mudança vai ser desconfortável, porque estamos biologicamente programados para acreditar no que vemos.
O responsável do Instagram também critica o caminho seguido pelos fabricantes de câmaras, que continuam a apostar no processamento visual "profissional" e polido. Na sua visão, isso é um erro num mundo onde a AI consegue gerar imagens perfeitas sem esforço. Fotografias demasiado bonitas tornaram-se banais e aborrecidas, enquanto imagens mais cruas e imperfeitas passaram a ser um sinal (temporário) de autenticidade. Temporário porque, muitos modelos AI já estão a seguir por esse caminho para conseguirem obter esse mesmo realismo.
A solução, diz Mosseri, não passa apenas por tentar colocar etiquetas nos conteúdo gerado por AI, porque essa abordagem vai falhar à medida que a tecnologia evolui. E, assumindo desde já que os conteúdos AI irão ser muito mais numerosos que os conteúdos reais, propõe precisamente o oposto, de que se faça a marcação dos conteúdos reais, com assinaturas criptográficas feitas pelas próprias câmaras, e dar mais contexto sobre quem está por trás de cada conta nas redes sociais. Num mundo dominado pela proliferação de conteúdos AI, só quem conseguir manter a confiança, consistência, e transparência vai conseguir demonstrar que é "humano".



















Sem comentários:
Enviar um comentário (problemas a comentar?)