Grupo que inclui acadêmicos e empresários do setor tecnológico pede suspensão dos treinos de sistemas de IA mais potentes que o ChatGPT 4, alertando para "grandes riscos para humanidade".
www.dw.com
Mais de mil pessoas assinaram o documento e a mídia chama a atenção para o Elon Musk... É foda.
Um grupo de políticos, especialistas, acadêmicos e empresários do setor tecnológico, incluindo Elon Musk, pede a suspensão por seis meses dos experimentos com
inteligência artificial (IA) mais potentes que o ChatGPT 4, modelo de OpenAI lançado neste mês, alertando para "grandes riscos para a humanidade".
"A sociedade já apertou o botão de pausa em outras tecnologias com efeitos potencialmente catastróficos para ela. Podemos fazer o mesmo aqui. Vamos desfrutar um longo verão da IA, não nos precipitar despreparados num outono", diz a carta aberta publicada pela organização sem fins lucrativos Future of Life Institute.
A petição pede uma moratória até que sejam estabelecidos sistemas de segurança com novas autoridades reguladoras, vigilância de sistemas de IA, técnicas que ajudem a distinguir entre o real e o artificial e instituições capazes de fazer face da "dramática perturbação econômica e política (especialmente para a democracia) que a IA causará".
O documento leva mais de mil assinaturas. Além do bilionário Elon Musk, dono do Twitter e fundador da SpaceX e da Tesla, também apoiam o apelo o historiador Yuval Noah Hariri, o cofundador da Apple Steve Wozniak, membros do laboratório de IA
DeepMind da Google, o diretor da Stability AI, Emad Mostaque, assim como especialistas e acadêmicos americanos de IA e engenheiros executivos da
Microsoft, empresa aliada da OpenAI.
"Corrida descontrolada"
"A IA avançada pode representar uma mudança profunda na história da vida na Terra, e deveria ser planejada e gerida com cuidado e recursos", diz a carta, que também argumenta que "os laboratórios de IA envolveram-se em uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas".
Afirmam também que "ninguém – nem mesmo os seus criadores – pode compreender, prever ou controlar de forma confiável" essas mentes digitais.
Os signatários levantam todos os receios e perigos que nos últimos meses têm ecoado em fóruns, artigos e conversas diárias, agora com um tom apocalíptico.
"Devemos desenvolver mentes não humanas que possam eventualmente nos superar em número, nos enganar, nos tornar obsoletos e nos substituir? Devemos correr o risco de perder o controle da nossa civilização?", perguntam, antes de concluir que "tais decisões não devem ser relegadas a líderes tecnológicos não eleitos".
Sistema jurídico
Eles pedem que os desenvolvedores trabalhem com legisladores para acelerar um sistema jurídico robusto em torno da IA. Além disso, reafirmam que os poderosos sistemas de IA só devem ser desenvolvidos quando houver certeza de que os seus efeitos são positivos e de que os seus riscos são controláveis.
"Pedimos a todos os laboratórios de IA para que parem imediatamente durante pelo menos seis meses a formação de sistemas de IA mais poderosos do que o GPT-4", diz a declaração, que solicita intervenção governamental para impor tal moratória se as partes envolvidas se recusarem a suspender temporariamente o desenvolvimento.
O diretor da Open AI, que projetou o
ChatGPT, Sam Altman, reconheceu ter "um pouco de medo" de que sua criação seja usada para "desinformação em larga escala ou ataques cibernéticos". "A empresa precisa de tempo para se ajustar", disse ele recentemente à ABC News