Será que a OpenAI tem medo do que está criando? Ela propõe desacelerar a inteligência artificial por receio de uma superinteligência incontrolável.
A OpenAI, empresa por trás de alguns dos sistemas de inteligência artificial mais avançados do mundo, alertou que os riscos associados ao desenvolvimento de uma possível "superinteligência" poderiam ser " potencialmente catastróficos".
Em um novo relatório intitulado "Progresso e Recomendações em IA" , a empresa chega a propor a consideração de uma desaceleração global no progresso da área, a fim de estudar melhor os mecanismos de controle e alinhamento desses sistemas.
Um alerta sobre o ritmo do desenvolvimento. O documento argumenta que, embora os benefícios da inteligência artificial sejam enormes, a falta de controle sobre sistemas altamente capazes representa um perigo que a sociedade não pode ignorar. "Obviamente, ninguém deveria implantar sistemas superinteligentes sem ser capaz de alinhá-los e controlá-los de forma robusta, e isso requer mais trabalho técnico", afirma o texto.
A afirmação mais surpreendente é a sugestão de que o setor talvez precise "desacelerar o desenvolvimento" da inteligência artificial para estudar seus efeitos e riscos mais profundamente antes de atingir níveis de autoaperfeiçoamento recursivo, ou seja, quando os próprios sistemas puderem ser redesenhados sem intervenção humana.

Foi isto que a OpenAI disse. Foto: OpenAI
A OpenAI alerta que a competição entre laboratórios e países pode gerar uma "corrida" tecnológica com incentivos contraproducentes para a segurança.
Portanto, propõe-se que os principais intervenientes do setor cheguem a um acordo sobre princípios comuns de investigação e protocolos de segurança, comparáveis às normas históricas que regem a construção ou a proteção contra incêndios.
A empresa sugere que essa cooperação global inclua governos e agências de diversos países, para coordenar ações especialmente em áreas sensíveis, como a prevenção do uso de IA em bioterrorismo ou manipulação de informações em larga escala.

A empresa sugere que essa cooperação global inclua governos e agências. Foto: iStock
O relatório identifica dois cenários possíveis: um em que a inteligência artificial evolui de forma semelhante a outras inovações — como a imprensa ou a internet — e outro em que a superinteligência surge a uma velocidade sem precedentes. Neste último caso, alerta a OpenAI, as regulamentações tradicionais podem revelar-se insuficientes.
Apesar do tom cauteloso, a empresa reitera seu compromisso com o desenvolvimento responsável da tecnologia e com o que chama de "segurança": a prática de viabilizar os benefícios da IA, reduzindo seus efeitos negativos.
“A responsabilidade perante as instituições públicas deve ser mantida, independentemente da velocidade do progresso tecnológico ”, conclui o relatório.
Mais notícias no EL TIEMPO *Este conteúdo foi reescrito com o auxílio de inteligência artificial, com base em informações da OpenAI.
eltiempo




