Linus Torvalds esclareceu a posição do Linux face ao código gerado por AI: aceitando-o, desde que tenha o nível de qualidade exigido.
O projecto do kernel Linux definiu novas regras quanto ao código gerado por AI, colocando um ponto final em meses de discussão intensa na comunidade open-source. A nova política permite o uso de ferramentas AI, mas impõe regras claras de transparência. Em vez da tradicional etiqueta "Signed-off-by", contribuições com ajuda de AI passam a exigir a indicação "Assisted-by", tornando explícito o uso destas ferramentas.
No centro da decisão está uma ideia simples defendida por Linus Torvalds e partilhada por muitos outros developers: a AI é apenas mais uma ferramenta, e a responsabilidade final deve ser sempre do programador. Quaisquer bugs, falhas de segurança, ou problemas legais associados ao código gerado por AI recaem totalmente sobre quem o submeteu. Em vez de proibir o uso de ferramentas AI, o foco passa a ser a responsabilização pelo seu uso e transparência. A decisão surge após preocupações no ecossistema open-source. Alguns projectos chegaram a proibir completamente código gerado por AI devido a riscos legais ligados a licenças e dados de treino. Outros enfrentam uma avalanche de "AI slop", com contribuições de baixa qualidade, patches enormes, e bugs adicionais que consomem tempo aos responsáveis dos projectos.
Com estas novas regras, o kernel Linux procura fomentar o uso de ferramentas modernas sem perder o foco na qualidade do código. Os programadores podem usar AI para acelerar o trabalho - como desde logo seria inevitável que acontecesse - mas têm que assumir total responsabilidade pelo resultado final.
2026/04/13
Subscrever:
Enviar feedback (Atom)


















Sem comentários:
Enviar um comentário (problemas a comentar?)