Elon Musk parece querer levar à letra a sua cruzada pelo total direito de liberdade de expressão, expandindo o assistente Grok - que já exibia uma personalidade peculiar na área dos modelos AI - com a capacidade de gerar imagens.
Mais concretamente, o Grok ganha a geração de imagens do modelo Flux que tem dado que falar, mas com a pequena grande diferença de que parece não ter aplicado qualquer tipo de restrições quanto ao tipo de imagens que se podem criar. E estando-se em pleno período de campanha eleitoral nos EUA, facilmente se pode imaginar o que tem sido usado para testar que imagens se podem gerar.
Claro que há quem argumente que o problema não são as ferramentas em si, mas sim os utilizadores a e forma como as utilizam.This problem is much bigger than just Grok! My Apple ][ computer often created harmful content like this. If you typed PRINT “YOU SHOULD EAT ROCKS”, the computer would advise you to eat rocks, which is dangerous from a culinary perspective.
— Tim Sweeney (@TimSweeneyEpic) August 15, 2024
Está mais que demonstrado que, mesmo com restrições, a maioria (todos?) os modelos AI podem ser convencidos a fazer coisas que não seria suposto fazerem. Isso tem sido feito de forma praticamente imediata assim que um novo modelo AI é lançado; pelo que as supostas restrições são apenas um pequeno entrave que obriga a um passo adicional para se fazer o que se quiser. Por essa perspectiva, o X está correcto ao não colocar restrições... Por outro lado, tal como até os sites para adultos são obrigados a meter pseudo-avisos de que não podem ser vistos por menores (com efeito prático nulo), pode argumentar-se que existe a responsabilidade social de, pelo menos, dizer que fizeram algo que dificulte (mesmo que pouco) a criação de images potencialmente abusivas ou até mesmo ilegais.
Ultimamente, será bom se se começar a ver a responsabilização das pessoas pelos seus actos, e não apenas a culpabilização das ferramentas.
Sem comentários:
Enviar um comentário (problemas a comentar?)