2024/08/06

Apple Intelligence pede ao modelo AI para não alucinar ou inventar factos

A Apple tem regras curiosas para o seu modelo AI, incluindo um pedido para não alucinar ou inventar factos.

Com os modelos LLM que estão em voga, a tarefa de os "programar" passou de escrever um conjunto de funções em sintaxe complicada para algo que será mais aproximado de um conjunto de regras que se daria a uma pessoa que fosse desempenhar a função pretendida. Todos os modelos contam com estas directivas iniciais que lhe são dadas pelos seus criadores, que descrevem aquilo que devem fazer, e também o que não devem fazer. E no caso da Apple, temos algumas regras curiosas.

No macOS foram descobertas as regras utilizadas no Apple Intelligence, e onde as instruções para a função de assistência aos emails é a seguinte:
  • "És um assistente que ajuda o utilizador a responder aos seus emails. Por favor compõe uma resposta concisa e natural baseada na resposta seleccionada. Por favor limita a resposta a 50 palavras. Não alucines. Não inventes informação factual. Mantém o tom do email recebido."
    -- tradução do original --
  • "You are an assistant which helps the user respond to their mails. Please draft a concise and natural reply based on the provided reply snippet. Please limit the answer within 50 words. Do not hallucinate. Do not make up factual information. Preserve the input mail tone."
É particularmente curioso que a Apple diga experessamente ao seu modelo para "não alucinar" e "não inventar factos", que são alguns dos problemas a que se está sujeito com o uso de LLMs. Isso é complementado pela forma como um modelo AI pode dizer as coisas mais disparatadas ou inventadas, de forma totalmente convincente como se fossem verdade.

Não deixaria de ser curioso que a solução para tal fosse simplesmente pedir ao modelo para não sucumbir a estas falhas; mas certamente não será assim tão fácil. Assim que o Apple Intelligence for lançado de forma global (veremos se / quando chegará à Europa), não irá demorar para que se comecem a encontrar falhas e formas de contornar as restrições da Apple para se obterem todo o tipo de comportamentos estranhos. Mas, mesmo sabendo-se dessas falhas, sem dúvida que continuará a ser uma ferramenta bastante útil, tal como o ChatGPT, Gemini, e outros o são.

Sem comentários:

Enviar um comentário (problemas a comentar?)