Exclusivo: relatório encomendado pelo governo dos EUA considera a IA uma ameaça existencial
“É imperativo que o governo dos EUA aja de forma rápida e decisiva para evitar riscos significativos para a segurança nacional decorrentes da inteligência artificial (IA) que poderiam, na pior das hipóteses, representar um ‘risco existencial para a raça humana’.diz um relatório encomendado pelo governo dos EUA.
O relatório citado pela revista TIME afirma que as capacidades atuais da IA representam “Ameaça urgente e crescente à segurança nacional dos Estados Unidos”. O artigo compara os impactos potenciais da IA avançada e da AGI (“inteligência artificial geral”) com o advento das armas nucleares. AGI é uma tecnologia de design que pode executar a maioria das tarefas no nível da inteligência humana ou acima dele; neste momento, tais sistemas ainda não existem, mas os principais laboratórios de IA estão a trabalhar na sua implementação. O relatório prevê que a AGI surgirá nos próximos cinco anos.
Os autores do relatório passaram mais de um ano pesquisando o tema, conversando com mais de 200 autoridades governamentais, especialistas e funcionários de empresas que trabalham na linha de frente do desenvolvimento de IA, incluindo OpenAI, Google DeepMind, Anthropic e Meta. As conversas revelam preocupações entre os responsáveis pela segurança da IA sobre os incentivos que orientam as decisões tomadas pelos CEO que controlam as suas empresas.
Para mitigar os riscos potenciais, os relatores propõem uma intervenção política sem precedentes no desenvolvimento da tecnologia. Entre as recomendações estão a criação de um departamento federal de IA e a proibição legal de treinar modelos de IA com poder computacional acima de um determinado nível; criar um regime permissivo para as empresas desenvolverem e implantarem novos modelos acima do limite especificado e criminalizar a publicação do funcionamento interno de modelos poderosos de IA, o que afetaria modelos de IA de código aberto já criados. Propõe-se também que os infratores identificados sejam sancionados com processo criminal. O relatório também recomenda o reforço dos controlos sobre o fabrico e exportação de chips de IA e o aumento do financiamento para investigação destinada a proteger a Inteligência Artificial.
O relatório foi encomendado pelo Departamento de Estado dos EUA como parte de um contrato federal de US$ 250 mil. O documento foi elaborado por um comitê de quatro membros formado por funcionários da Gladstone AI, empresa que realiza treinamentos técnicos com governantes sobre como trabalhar com IA. Algumas das recomendações sugerem um aumento significativo no investimento federal na educação dos funcionários sobre vários aspectos dos sistemas de IA, para que os funcionários possam compreender melhor os riscos associados à inteligência artificial.
A primeira página do relatório diz:
“As recomendações não refletem as opiniões do governo dos EUA.”
Muitas das recomendações do relatório, que até recentemente teriam parecido malucas, surgem após uma série impressionante de conquistas no campo da inteligência artificial. O rápido desenvolvimento da tecnologia fez com que muitos observadores repensassem a sua posição sobre os efeitos da IA na humanidade. O chatbot ChatGPT, lançado em novembro de 2022, foi apenas a primeira ferramenta através da qual o potencial da IA se tornou visível ao público. Desde então, novos desenvolvimentos com capacidades ainda maiores continuam a surgir. Enquanto os governos de todo o mundo debatem a melhor forma de regular a inteligência artificial, os gigantes tecnológicos já estão a construir uma infra-estrutura espectacular para treinar a próxima geração de sistemas ainda mais poderosos.
Enquanto isso, de acordo com uma pesquisa recente do AI Policy Institute, mais de 80% da população americana acredita que a IA poderia causar acidentalmente um evento catastrófico, e 77% dos entrevistados dizem que o governo deveria fazer mais para sua regulamentação.
O relatório aborda os receios dos americanos em duas categorias de risco distintas. A primeira categoria listada como “Risco de extinção”lê-se: “Esses sistemas poderiam ser potencialmente usados para projetar e até mesmo executar ataques biológicos, químicos ou cibernéticos catastróficos, ou permitir ataques sem precedentes por um exército de robôs armados”. A segunda categoria é o que o relatório chama “Risco de perda de controle” ou a possibilidade de sistemas avançados de IA serem mais espertos que seus criadores. Isso existe “boas razões para acreditar que os sistemas de IA podem tornar-se incontroláveis se forem desenvolvidos com as técnicas atuais e podem tornar-se hostis aos humanos por defeito”afirma o relatório.
O documento partilha as preocupações das autoridades federais sobre a facilidade e o baixo custo com que utilizadores inescrupulosos podem remover salvaguardas incorporadas em sistemas de IA de código aberto. “Se você distribuir um modelo aberto, mesmo que pareça seguro, pode se tornar perigoso no longo prazo”afirma o relatório, acrescentando que a decisão de abrir um modelo é irreversível: “Neste ponto, tudo o que você pode fazer é assumir a responsabilidade pelos danos.”