As ferramentas que visam identificar se um texto foi escrito por um sistema AI penalizam textos escritos por pessoas que não falem inglês nativamente.
Com a popularização de ferramentas AI, que podem escrever todo o tipo de textos em poucos segundos, surgiram também serviços e ferramentas que tentam detectar quando um texto foi escrito por um modelo AI. No entanto, podem acabar por classificar erradamente textos como tendo sido escritos por AI quando na verdade foram escritos por pessoas reais.
Um estudo revela que isso tem maior probabilidade de acontecer quando se tenta comprovar a autenticidade de textos escritos por pessoas que não falem inglês nativamente, e que terão tendência para utilizar uma palavras e expressões mais simples e comuns; algo que acaba por ter grande influência para que os sistemas de verificação achem que foi um sistema AI a escrever o texto.
O resultado prático é que escolas e empresas que usem estes sistemas de verificação, arriscam-se a penalizar injustamente imigrantes, que poderão ser acusados de serem "batoteiros" por usarem sistemas AI, quando na realidade são os sistemas AI que fazem essa avaliação que estão a falhar na sua classificação.
Subscrever:
Enviar feedback (Atom)
Sem comentários:
Enviar um comentário (problemas a comentar?)