2025/01/06

OpenAI segue rumo à superinteligência

A OpenAI considera a AGI como sendo um objectivo já superado, e define a próxima meta como sendo a superinteligência.

Sam Altman partilhou as suas reflexões de final/início de ano, e diz que neste momento a OpenAI acredita saber como alcançar a Inteligência Geral Artificial (AGI), e que já se está a focar no passo seguinte, o desenvolvimento de sistemas que ultrapassem significativamente as capacidades humanas, designados por "superinteligência".

A OpenAI define AGI como sistemas altamente autónomos que superam os humanos em tarefas economicamente valiosas, algo que Altman diz que as próximas gerações dos seus modelos AI conseguirão fazer ainda de melhor forma que os modelos actuais, podendo ser integrados nas empresas como "trabalhadores virtuais" - embora reconheça que ainda existam problemas a nível de erros, alucinações, e também custo. No entanto, a parte chave é que a OpenAI acha que a criação destes sistemas é algo que já está dominado, definindo como grande objectivo a criação de uma superinteligência, que potencialmente poderá ser atingida na próxima década.

Muitos especialistas acreditam que já se estão a dar os primeiros passos neste sentido, ao usar modelos AI que são capazes de se auto-melhorar com aprendizagem própria - ao estilo do que tem sido feito nos modelos mais recentes, que usam dados gerados por outros modelos AI para se treinarem, como forma de evitarem o uso de dados que potencialmente estejam sujeitos a direitos de autor.

Uma coisa é certa, embora alguns receiem que uma superinteligência possa escapar ao controlo dos humanos como imaginado em muitas histórias de ficção científica, a verdade é que isso poderá ser visto como algo inevitável de ser desenvolvido, nem que seja pelo simples facto de nenhuma grande potência se querer arriscar a ficar para trás neste campo face a nações rivais.

5 comentários:

  1. Irá inevitavelmente criar resultados semelhantes aos da doença das vacas loucas

    Alimentar algo com base naquilo que lhe deu origem, sem supervisão humana assertiva, irá dar resultados muito inesperados.

    ResponderEliminar
    Respostas
    1. Segundo a última investigação está incorreto, empiricamente dados sintéticos funcionam, seja com reinforcement learning ou outro tipo.

      Eliminar
    2. Sem supervisão humana assertiva, em em aspetos mais ou menos específicos, presumo que o delírio acabará por contaminar alguns resultados desse tipo de auto aprendizagem.

      Um sistema sem capacidade de análise sensorial do mundo que o rodeia, face à capacidade inata de um ser vivo, será sempre um sistema incompleto, quando comparado com uma equivalência humana (biológica).

      Sem supervisão humana assertiva, nunca poderá ser plenamente fiável, por muito que os seus mentores assim o desejem.

      Não conheço essa última investigação, mas presumo que os nossos filhos e netos irão verificar na própria pele se efetivamente estarei errado ou não.

      Eliminar
  2. Nossos filhos??? Olhe que não... há velocidade a que este tipo de tecnologia tem avançado, vamos nós próprios ser testemunhas de algo incrivelmente maravilhoso ou terrivelmente fatal.

    ResponderEliminar
    Respostas
    1. Quem colocar os ovos todos no cesto da IA, certamente irá obter resultados aparentemente "maravilhosos" mas, sem os devidos cuidados, certamente que a ruína estará mesmo logo ao lado.

      Eliminar