União Europeia apresenta regra para grandes sistemas de IA

2 dias atrás 7

Autoridades da União Europeia revelaram novas regras nesta quinta-feira (10) para regular a inteligência artificial. Os criadores dos sistemas de IA mais poderosos terão que melhorar a transparência, limitar violações de direitos autorais e proteger a segurança pública.

As regras, que não serão aplicáveis até o próximo ano, surgem durante um intenso debate em Bruxelas sobre quão agressivamente regular uma nova tecnologia vista por muitos líderes como crucial para o futuro sucesso econômico diante da competição com os Estados Unidos e a China. Alguns críticos acusaram os reguladores de diluir as regras para ganhar apoio da indústria.

As diretrizes se aplicam apenas a um pequeno número de empresas de tecnologia como OpenAI, Microsoft e Google que criam a chamada IA de propósito geral. Esses sistemas sustentam serviços como o ChatGPT e podem analisar enormes quantidades de dados, aprender por conta própria e realizar algumas tarefas humanas.

O chamado código de conduta representa alguns dos primeiros detalhes concretos sobre como os reguladores da UE planejam aplicar uma lei, chamada Lei de IA, que foi aprovada no ano passado. As regras para sistemas de IA de propósito geral entram em vigor em 2 de agosto, embora os reguladores da UE não possam impor penalidades por não-conformidade até agosto de 2026, de acordo com a Comissão Europeia, o braço executivo do bloco de 27 nações.

A Comissão Europeia disse que o código de conduta visa ajudar as empresas a cumprir a Lei de IA. Empresas que concordarem com o código voluntário se beneficiariam de uma "carga administrativa reduzida e maior segurança jurídica". Autoridades disseram que aquelas que não assinarem ainda teriam que provar conformidade com a Lei de IA por outros meios, o que potencialmente poderia ser mais custoso e demorado.

Não ficou imediatamente claro quais empresas adeririam ao código de condulta. Google e OpenAI disseram que estavam analisando o texto final. A Microsoft recusou-se a comentar. A Meta, que havia sinalizado que não concordaria, não teve um comentário imediato. Amazon e Mistral, uma importante empresa de IA na França, não responderam a um pedido de comentário.

A CCIA Europe, um grupo comercial da indústria de tecnologia que representa empresas como Amazon, Google e Meta, disse que o código de conduta "impõe um ônus desproporcional aos provedores de IA".

De acordo com as diretrizes, as empresas de tecnologia terão que fornecer detalhamentos sobre o conteúdo usado para treinar seus algoritmos, algo há muito tempo buscado por editores de mídia preocupados que sua propriedade intelectual esteja sendo usada para treinar os sistemas de IA. Outras regras exigiriam que as empresas realizassem avaliações de risco para ver como seus serviços poderiam ser mal utilizados para coisas como a criação de armas biológicas que representam um risco à segurança pública.

O New York Times processou a OpenAI e sua parceira, Microsoft, alegando violação de direitos autorais de conteúdo de notícias relacionado a sistemas de IA. As duas empresas negaram as alegações do processo.

Folha Mercado

Receba no seu email o que de mais importante acontece na economia; aberta para não assinantes.

O que é menos claro é como a lei abordará questões como a disseminação de desinformação e conteúdo prejudicial. Esta semana, o Grok, um chatbot criado pela empresa de inteligência artificial de Elon Musk, xAI, compartilhou vários comentários antissemitas na plataforma social X, incluindo elogios a Adolf Hitler.

Henna Virkkunen, vice-presidente executiva da Comissão Europeia para soberania tecnológica, segurança e democracia, disse que a política era "um passo importante para tornar os modelos de IA mais avançados disponíveis na Europa não apenas inovadores, mas também seguros e transparentes".

Nick Moës, diretor executivo da Future Society, um grupo da sociedade civil focado em política de IA, disse que as empresas de tecnologia conquistaram grandes concessões. "O lobby que fizeram para mudar o código realmente resultou em eles determinarem o que é aceitável fazer", disse ele.

As diretrizes introduzidas na quinta-feira são apenas uma parte de uma lei abrangente que entrará totalmente em vigor nos próximos anos. A lei foi destinada a prevenir os efeitos mais prejudiciais da IA, mas autoridades europeias têm recentemente ponderado as consequências de regular uma tecnologia tão dinâmica e competitiva.

Líderes em todo o continente estão cada vez mais preocupados com a posição econômica da Europa frente aos Estados Unidos e à China. A Europa há muito tempo luta para produzir grandes empresas de tecnologia, tornando-se dependente de serviços de corporações estrangeiras. Tensões com a administração Trump sobre tarifas e comércio intensificaram o debate.

Grupos que representam muitas empresas europeias instaram os formuladores de políticas a atrasar a implementação da Lei de IA, dizendo que a regulamentação ameaça retardar a inovação, colocando suas empresas em desvantagem frente à concorrência estrangeira.

"A regulamentação não deveria ser o melhor produto de exportação da UE", disse Aura Salla, membro do Parlamento Europeu pela Finlândia que anteriormente foi uma importante lobista da Meta em Bruxelas. "Está prejudicando nossas próprias empresas."

Read Entire Article