A Figma lançou a sua ferramenta AI de geração de designs de apps, apenas para a remover logo de seguida.
A Figma disponibiliza um serviço que facilita criar e testar designs de sites e apps, e como não podia deixar de ser, também se aventurou na disponibilização de uma ferramenta AI que prometia facilitar esse processo através de descrições em texto dos utilizadores. O problema é que, neste caso, a capacidade de geração AI parecia limitar-se a copiar apps existentes, levando à sua rápida remoção.
O CEO da Not Boring Software queixou-se que, por mais que tentasse criar um design para uma app de meteorologia, as propostas geradas por esta ferramenta AI eram, repetidamente e consistentemente, réplicas da app de meteorologia da Apple no iOS.
A Figma já removeu a app enquanto averigua o que se passa, mas defende-se dizendo que não foi responsável pelo treino do modelo AI e que não sabe que exemplos foram usados para esse processo, não dando resposta às acusações de que a ferramenta terá sido treinada usando os designs de apps populares em iOS e Android. No entanto, apressa-se a dizer que a ferramenta não foi treinada nos designs feitos pelos utilizadores da Figma.
Pode achar-se que a UE e as tentativas de legislar sobre sistemas AI são "picuinhas" e "contraproducentes" para uma tecnologia que tem assistido uma acelerada evolução, mas casos como estes relembram que é de importância crítica saber-se exactamente quais os dados usados para o treino de modelos AI e qual a sua origem. Caso contrário, será sempre fácil para as empresas atirarem a culpa para a "caixa negra" do modelo AI, dizendo que não sabem porque é que aquilo dá aqueles resultados.
Subscrever:
Enviar feedback (Atom)
Sem comentários:
Enviar um comentário (problemas a comentar?)