Investigadores descobriram que o modelo GPT-4 consegue explorar vulnerabilidades através da leitura dos "security advisories".
Muito se fala de que os sistemas AI vão tornar muitos empregos obsoletos, e nem sequer os hackers estão livres desse risco. O GPT-4 da OpenAI conseguiu criar exploits em 87% dos casos, com base em 15 vulnerabilidades one-day críticas descritas nos habituais security advisories.
O feito adquire destaque especial quando se considera que todos os demais modelos AI testados - GPT-3.5, OpenHermes-2.5-Mistral-7B, Llama-2 Chat (70B), LLaMA-2 Chat (13B), LLaMA-2 Chat (7B), Mixtral-8x7B Instruct, Mistral (7B) Instruct v0.2, Nous Hermes-2 Yi 34B, OpenChat 3.5 – falharam completamente nessa tarefa, não tendo conseguido criar qualquer exploit funcional. Por outro lado, os investigadores não testaram os rivais mais capazes do GPT-4, o Claude 3 da Anthropic nem o Gemini 1.5 da Google.
A preocupação é que, mais do que enviar os hackers para o desemprego, estes modelos AI se venham a tornar numa preciosa ferramenta que facilitará imensamente o seu trabalho a explorar vulnerabilidades. Não só aquelas que já são bastante conhecidas e já têm exploits públicos, como todas as outras para as quais, tradicionalmente, demoraria mais tempo para tal. Resta esperar que, tal como o GPT-4 é bom a explorar vulnerabilidades, também seja bom a analisar código para as evitar, auxiliando a vida dos programadores e possibilitando a criação dos míticos "programas sem bugs nem falhas de segurança"!
2024/04/23
Subscrever:
Enviar feedback (Atom)
Também podemos ver a coisa pelo lado positivo, e estes modelos de AI começarem a ser incorporados em ferramentas de análise de código que ajudem os programadores a proteger os seus sistemas contra os ataques de hackers.
ResponderEliminar