Europa arregaçando as manguinhas para frear o problema:
[...]
Os legisladores concordaram com uma versão preliminar da lei, que agora será negociada com o Conselho da União Europeia e os estados-membros antes de se tornar lei.
“Enquanto as grandes empresas de tecnologia estão soando o alarme sobre suas próprias criações, a Europa foi em frente e propôs uma resposta concreta aos riscos que a IA está começando a representar”, acrescentou Benifei.
[...]
Aqui estão as principais conclusões.
Os sistemas que se enquadram na última categoria são totalmente banidos. Isso inclui sistemas de reconhecimento facial em tempo real em espaços públicos, ferramentas preditivas de policiamento e sistemas de pontuação social, como os da China, que atribuem às pessoas uma “pontuação de saúde” com base em seu comportamento.
A legislação também estabelece restrições rígidas a aplicativos de inteligência artificial de “alto risco”, que são aqueles que ameaçam “danos significativos à saúde, segurança, direitos fundamentais ou meio ambiente das pessoas”.
Isso inclui sistemas usados para influenciar os eleitores em uma eleição, bem como plataformas de mídia social com mais de 45 milhões de usuários que recomendam conteúdo, uma lista que inclui Facebook, Twitter e Instagram. A lei também descreve os requisitos de transparência para sistemas de inteligência artificial.
Por exemplo, sistemas como o ChatGPT teriam que divulgar que seu conteúdo foi gerado por IA, distinguir imagens deepfake das reais e fornecer salvaguardas contra a geração de conteúdo ilegal.
Resumos detalhados dos dados protegidos por direitos autorais usados para treinar esses sistemas de inteligência artificial também teriam que ser publicados.
Os sistemas de IA com risco mínimo ou nenhum, como filtros de spam, estão fora das regras.
[...]
“Acreditamos que a inteligência artificial requer proteções legislativas, esforços de alinhamento em nível internacional e ações voluntárias significativas de empresas que desenvolvem e implantam IA”, disse um porta-voz da Microsoft em nota.
Enquanto isso, a IBM pediu aos formuladores de políticas da UE que adotassem uma “abordagem baseada em risco” e sugeriu quatro “melhorias importantes” para o projeto de lei, incluindo mais clareza sobre IA de alto risco “para que apenas casos de uso verdadeiramente de alto risco sejam capturados”.
A lei pode não entrar em vigor até 2026, de acordo com Muldoon, que disse que as revisões são prováveis, dada a rapidez com que a inteligência artificial está avançando. A legislação já passou por diversas atualizações desde o início da redação em 2021.
“A lei se expandirá em escopo à medida que a tecnologia se desenvolver”, disse Muldoon.
Europa lidera corrida para regulamentar a inteligência artificial; entenda como
Segundo o bloco, lei busca garantir alto nível de proteção da saúde, segurança, direitos fundamentais, democracia e estado de direito e meio ambiente no uso da IA
www.cnnbrasil.com.br
[...]
Os legisladores concordaram com uma versão preliminar da lei, que agora será negociada com o Conselho da União Europeia e os estados-membros antes de se tornar lei.
“Enquanto as grandes empresas de tecnologia estão soando o alarme sobre suas próprias criações, a Europa foi em frente e propôs uma resposta concreta aos riscos que a IA está começando a representar”, acrescentou Benifei.
[...]
Aqui estão as principais conclusões.
Alto risco, baixo risco, proibido
Uma vez aprovada, a lei se aplicará a qualquer pessoa que desenvolva e implante sistemas de inteligência artificial na UE, incluindo empresas localizadas fora do bloco. A extensão da regulamentação depende dos riscos criados por um aplicativo específico, que pode ser de mínimo a “inaceitável”.Os sistemas que se enquadram na última categoria são totalmente banidos. Isso inclui sistemas de reconhecimento facial em tempo real em espaços públicos, ferramentas preditivas de policiamento e sistemas de pontuação social, como os da China, que atribuem às pessoas uma “pontuação de saúde” com base em seu comportamento.
A legislação também estabelece restrições rígidas a aplicativos de inteligência artificial de “alto risco”, que são aqueles que ameaçam “danos significativos à saúde, segurança, direitos fundamentais ou meio ambiente das pessoas”.
Isso inclui sistemas usados para influenciar os eleitores em uma eleição, bem como plataformas de mídia social com mais de 45 milhões de usuários que recomendam conteúdo, uma lista que inclui Facebook, Twitter e Instagram. A lei também descreve os requisitos de transparência para sistemas de inteligência artificial.
Por exemplo, sistemas como o ChatGPT teriam que divulgar que seu conteúdo foi gerado por IA, distinguir imagens deepfake das reais e fornecer salvaguardas contra a geração de conteúdo ilegal.
Resumos detalhados dos dados protegidos por direitos autorais usados para treinar esses sistemas de inteligência artificial também teriam que ser publicados.
Os sistemas de IA com risco mínimo ou nenhum, como filtros de spam, estão fora das regras.
[...]
Empresas respondem
A Microsoft – que, juntamente com o Google, está na vanguarda do desenvolvimento de IA globalmente – saudou o progresso da lei, mas disse que espera “maior refinamento”.“Acreditamos que a inteligência artificial requer proteções legislativas, esforços de alinhamento em nível internacional e ações voluntárias significativas de empresas que desenvolvem e implantam IA”, disse um porta-voz da Microsoft em nota.
Enquanto isso, a IBM pediu aos formuladores de políticas da UE que adotassem uma “abordagem baseada em risco” e sugeriu quatro “melhorias importantes” para o projeto de lei, incluindo mais clareza sobre IA de alto risco “para que apenas casos de uso verdadeiramente de alto risco sejam capturados”.
A lei pode não entrar em vigor até 2026, de acordo com Muldoon, que disse que as revisões são prováveis, dada a rapidez com que a inteligência artificial está avançando. A legislação já passou por diversas atualizações desde o início da redação em 2021.
“A lei se expandirá em escopo à medida que a tecnologia se desenvolver”, disse Muldoon.