Numa medida bem recebida e que contribui para a transparência, a Anthropic passa a revelar os system prompts que comandam os seus modelos AI.
Apesar dos modelos AI actuais poderem sofrer ainda de bastantes limitações, exibem já capacidades surpreendentes e bastante úteis para todo o tipo de tarefas. Uma das suas coisas mais curiosas é a de que o seu comportamento é regulado por um conjunto de instruções e directivas que lhes são dados, ao estilo de um conjunto de regras que se daria a uma pessoa humana sobre como se deveria comportar ao desempenhar uma determinada função.
Por norma esses "system prompts" são mantidos em segredo, mas já se tornou quase num passatempo / desafio tentar descobri-los assim que um novo modelo AI é disponibilizado, e que invariavelmente acaba por os revelar. Mas a Anthtopic evita isso, passando a publicar os system prompts que usa, actualmente abrangendo os: Claude 3.5 Sonnet, Claude 3 Opus, e Claude 3 Haiku.
Isto permite espreitar a forma como a Anthropic tenta lidar com coisas mais sensíveis ou complicadas. Por exemplo, no caso de problemas matemáticos pede ao sistema para analisar o caso passo por passo antes de dar um resultado final. No caso de tópicos mais controversos, pede para que seja cuidadoso na forma como apresenta a informação. E temos também coisas curiosas, como o pedido para que não "veja caras" quando lhe pedem para analisar uma imagem, para que não dê a entender que é capaz de fazer reconhecimento facial e identificar pessoas.
A Anthropic também dá instruções aos seus modelos para que não se tornem excessivamente chatos na interacção com humanos, com um pedido de que não usem afirmações e expressões desnecessárias como "Certainly!", "Of course!", "Absolutely!", "Great!", "Sure!", e que nunca comece qualquer resposta com "certamente"! :)
Subscrever:
Enviar feedback (Atom)
Sem comentários:
Enviar um comentário (problemas a comentar?)