Não é a primeira vez que a Meta (e outras empresas) recorrem aos chamados "dark patterns" para tentarem fazer com que os utilizadores deixem ficar as coisas da forma que é mais conveniente para as empresas. Isso vê-se frequentemente em coisas como, sistemas super-fáceis e rápidos para aderir ou subscrever um serviço, mas que depois são um pesadelo para se tentar cancelar. E é precisamente o que se verifica neste uso de dados para AI.
A Meta diz que vai usar os dados dos utilizadores para treinar modelos AI, podendo incluir coisas como publicações, fotos e mensagens, mas apresenta uma forma para os clientes não cederem os seus dados para este uso. O processo é ridiculamente complexo, obrigando a passar por uma numerosa quantidade de passos, durante os quais será preciso escrever uma justificação(!), e adicionar um código de segurança enviado por email(!).
O cúmulo, é que a Meta diz expressamente que pode simplesmente optar por ignorar a objecção do utilizador e continuar a usar os seus dados para treinar modelos AI, e que, mesmo que aceite essa objecção, poderá também continuar a usá-los, bastando que esses conteúdos sejam partilhados ou republicados pelos seus amigos ou seguidores.6. Third, they provide you with a form to fill out. It is only at this stage — the stage when you are objecting — that they inform you about which of your content they plan to use for training AI models. Notice the highlighted text, clarifying that they may ignore your objection. pic.twitter.com/ZxSGFdKbnw
— Tantacrul (@Tantacrul) May 26, 2024
Tendo já passado pela polémica do caso Cambridge Analytica, seria de esperar que a Meta não tivesse a memória curta e já tivesse deixado de tratar os dados dos utilizadores de forma tão arrogante - neste caso, até dizendo claramente que pode simplesmente ignorar a sua vontade expressa. E depois ainda se queixam de que a UE é demasiado "intrometida" quando impõe regras sobre a forma como estas plataformas podem processar os dados dos utilizadores.
Temos a distopia instalada.
ResponderEliminar