A OpenAI revelou alguns detalhes curiosos sobre o processo de desenvolvimento do Advanced Voice Mode do GPT-4o, como imitar a voz do utilizador, ou de cantores conhecidos.
Com o lançamento do GPT-4o a OpenAI revelou o seu novo modo de voz que funciona de forma extremamente realista, e que começou a ser disponibilizado recentemente no ChatGPT confirmando as suas versáteis capacidades. Mas, não menos curioso, é ver as coisas que a OpenAI descobriu durante a fase de testes.
Um relatório da OpenAI revela os testes abusivos a que sujeitou o modo de voz do GPT-4o, e alguns resultados surpreendentes que obteve.
Como seria de esperar, antes do lançamento público, a OpenAI fez todo um conjunto de testes, não só para avaliar como o sistema se comportaria em casos mais extremos, como também para tentar assegurar que o modelo não poderia ser usado para fins impróprios (por exemplo, está limitado quanto a pedidos de fazer sons ou conversas sexuais). Nesse relatório descobrimos que, em certas situações, o modelo podia ter comportamentos inesperados e começar a imitar a voz do utilizador. Por vezes, também podia começar a imitar cantores conhecidos, ou criar efeitos de som estranhos, como tiros. Coisas que levaram a OpenAI a implementar um conjunto de restrições para evitar essas situações, assim como sistemas de detecção que asseguram que o modelo só usa as vozes autorizadas.
Não são coisas completamente inesperadas, já que se sabe que nas interacções por texto estes modelos AI também sofrem do risco de poderem "alucinar" e começar a debitar coisas sem sentido. Mas, sem dúvida que se pode tornar mais intrigante passar por um cenário em que o modelo AI começa a imitar a nossa voz, e potencialmente até com entoação satírica ou ameaçadora.
Sabendo-se que existem pessoas que se dedicam a fazer o "jailbreak" dos modelos AI, e que também o modelo de voz da OpenAI foi libertado, talvez se possa explorar um pouco mais estas alucinações vocais do modelo da OpenAI.
Sem comentários:
Enviar um comentário (problemas a comentar?)