2023/05/30

Especialistas alertam para risco da AI tornar humanidade extinta

Um grupo de especialistas publicou um alerta para os riscos dos sistemas de Inteligência Artificial.

O grupo, que inclui Sam Altman, CEO da OpenAI, e Demis Hassabis, CEO do Google DeepMind, pede o desenvolvimento ético e seguro dos sistemas AI, e sintetiza o alerta numa única frase, que evita a necessidade de perder demasiado tempo a ler e interpretar um longo texto:
"Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war."
- tradução -
"Mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear."

Este receio não é consensual entre a comunidade AI, havendo aqueles que receiam o risco de uma AI super-inteligente que decida exterminar os humanos, outros que receiam o mau uso destes sistemas para produzir informação falsa e desestabilizar a sociedade, e aqueles que dizem que estes receios estão a ser exagerados e não há motivo para tal nível de alarme.

O que é certo é que tudo isto, além de promover a discussão académica e social sobre o tema, acaba por se tornar inconsequente. Por muito que se tente regulamentar o desenvolvimento dos sistemas AI, haverá sempre países e entidades que o irão fazer à margem de qualquer legislação. E em resultado disso, não havendo nenhuma super-potência que queira ser apanhada desprevenida nessa eventualidade, também elas irão acabar por desenvolver sistemas cada vez mais poderosos, mesmo isso sendo feito em segredo.

Portanto, por esta altura, parece-me que qualquer tentativa de travar os sistemas AI acabará por ser uma mera ilusão. E, como também já foi referido, no caso da humanidade alguma vez ter que enfrentar um adversário AI super-inteligente, a melhor opção será ter outro sistema AI mais poderoso, capaz de o vencer.

4 comentários:

  1. A tradução correta estará mais próxima disto:

    "Mitigar o risco de extinção por IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear."

    ResponderEliminar
    Respostas
    1. Foi directo do Google Translate... Deixei a IA tratar disso. :)

      Eliminar
    2. Troca pro favor, Carlos.

      "Extinção da IA" é totalmente diferente de "extinção por IA".

      Eliminar
  2. 🤣🤣🤣🤣 É só maluquinhos do fim do mundo, estes especialistas 😂😂😂😂

    ResponderEliminar