SÃO PAULO, SP (FOLHAPRESS) - Na primeira semana de maio, o presidente do Senado, Rodrigo Pacheco (PSD-MG), apresentou projeto de lei para instituir um marco legal da inteligência artificial. A proposta pode fazer com que o Brasil seja um dos primeiros a regular o uso da IA de forma ampla, num momento em que vários países lutam para impor limites à tecnologia.
Diante de um acirramento na corrida das big techs por produtos que usam IA, pesquisadores e especialistas têm alertado sobre os riscos embutidos nesses sistemas.
Até mesmo os padrinhos da tecnologia, como o ex-Google Geoffrey Hinton, vêm engrossando o coro dos que clamam por um controle maior do setor.
Ilustração de Carolina Daffara Ilustração em vermelho, preto e branco, mostra robô gigante abraçado ao prédio do Banespa, em SP, como o King Kong no filme. Os avisos sobre os perigos da inteligência artificial aumentaram com a popularização do ChatGPT, chatbot alimentado por IA generativa que surpreendeu usuários por sua capacidade de responder a perguntas complexas, imitar estilo de artistas famosos e criar conteúdos quase indistinguíveis do que um humano faria.
O ChatGPT tirou nota alta no Enem, montou carteiras de investimentos com boa rentabilidade e escreveu algumas centenas de colunas de jornal.
Ao mesmo tempo, levantou preocupações sobre segurança de dados, divulgação de conteúdos tendenciosos e discursos discriminatórios.
Entre a empolgação com a nova tecnologia e o medo das consequências, a corrida pela regulação da IA tem ganhado velocidade. Diversos países começaram -ou se apressaram- a desenhar leis que abordam desde questões éticas até aspectos como privacidade, direitos autorais e transparência de algoritmos.
Até o momento, não há nenhuma regulamentação transversal sobre IA aprovada no mundo. O que existe é uma pluralidade de normas setoriais, políticas públicas e iniciativas de incentivo que abordam o uso dessa tecnologia.
Segundo levantamento da OCDE (Organização para Cooperação e Desenvolvimento Econômico), existem mais de 800 iniciativas de políticas para lidar com a IA hoje, em 69 países. No entanto, as primeiras regulações detalhadas ainda estão em discussão -e o Brasil pode ser pioneiro nessa corrida.
A proposta do Senado, que agora será analisada nas comissões temáticas da Casa, foi discutida ao longo de nove meses por uma comissão de especialistas.
O texto traz diretrizes gerais para o desenvolvimento, implementação e uso responsável da IA a fim de proteger direitos fundamentais e garantir sistemas seguros e confiáveis.
O projeto de lei é baseado em três grandes eixos: 1) princípios e direitos dos afetados, 2) classificação de riscos e 3) supervisão e responsabilização. Além disso, prevê a criação de um órgão para unificar e fiscalizar o cumprimento das regras.
Miriam Wimmer, diretora da ANPD (Autoridade Nacional de Proteção de Dados), diz que, na última década, os fóruns internacionais se esforçaram em estabelecer princípios para o uso responsável na internet e da inteligência artificial.
Segundo ela, uma das recomendações mais importantes veio da OCDE, assinada inclusive pelo Brasil em 2019. "É um documento muito principiológico, com parâmetros gerais e que reforça a ideia da IA centrada no ser humano."
Wimmer afirma que as primeiras regulações vinculantes estão surgindo agora e que o principal desafio é exatamente encontrar a medida certa entre obrigações concretas -passíveis de serem cobradas pelas autoridades- e dispositivos mais abstratos.
Nessa discussão, ela diz que o Brasil aparece como um dos países mais avançados, ao lado da União Europeia, que tem liderado a agenda há anos e deve ser a primeira a adotar um marco legal para limitar os excessos da inteligência artificial.
Desde 2021, o bloco discute a AIA (Lei de Inteligência Artificial, na sigla em inglês), cujo projeto foi aprovado nesta quinta (11) pelo Parlamento Europeu e agora segue para uma fase de negociações com cada país-membro.
Entre as preocupações centrais da iniciativa estão a difusão de conteúdos perigosos, a manipulação da opinião pública mediante conteúdos falsos e sistemas de vigilância em massa.
A AIA propõe uma avaliação de risco a partir de três categorias. A primeira inclui os sistemas de "risco inaceitável", que serão banidos e enquadram desde aplicativos que atribuem pontuação a pessoas (social scoring) até serviços que podem incentivar comportamentos de destruição.
A segunda categoria são os sistemas de "alto risco" -como ferramentas para classificar candidatos para vagas de emprego, além de tecnologias para infraestrutura e educação--, que estarão sujeitos a regras específicas. Por fim, entram os aplicativos não listados como perigosos, que serão deixados sem regulamentação.
Wimmer destaca diferenças entre as propostas europeia e brasileira. Segundo ela, a da UE é baseada muito na ideia de certificação de segurança de produtos. Já a abordagem brasileira coloca mais peso na proteção de direitos.
A diretora da ANPD destaca que não se trata de uma incompatibilidade entre os modelos, mas uma diferença de ênfase.
A AIA, por exemplo, se esforça para designar organismos responsáveis por avaliação de conformidade e fiscalização dos produtos colocados no mercado interno. Segundo ela, isso não está tão presente no modelo brasileiro, que já começa falando sobre direitos digitais --muito em função do histórico recente do Brasil em discutir esse tema.
"O próprio 1º artigo coloca como objetivo desta proposta legislativa a proteção dos direitos fundamentais e a garantia de sistemas seguros e confiáveis", diz. "Me parece que são olhares um pouco diferentes", acrescenta.
Ronaldo Lemos, diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro e colunista da Folha, pondera que o projeto brasileiro foi feito antes do surgimento dos grandes modelos como o ChatGPT e, por isso, já nasce datado.
Ele ainda destaca outros pontos de atenção, como um possível ônus para quem desenvolve inteligência artificial no Brasil, o que pode acabar favorecendo que o país seja mais consumidor do que produtor de IA.
"O desafio do Brasil com inteligência artificial é duplo: devemos estar atentos para os problemas que a IA pode trazer, mas precisamos também criar incentivos para que essa tecnologia possa ser desenvolvida de forma competitiva localmente", afirma.
A jurista Laura Schertel, que foi a relatora da comissão de especialistas que elaborou o marco brasileiro, discorda das críticas.
Sobre o projeto já nascer datado, ela diz que toda regulação lida com o risco de que as tecnologias avancem, mas afirma ser possível enfrentar esse desafio por meio de normas mais gerais. Além disso, ela destaca que o projeto possui dispositivos que compreendem tecnologias como ChatGPT.
"Não estamos regulando um típico específico de IA, mas aplicações e impactos", afirma. "Acho que vamos precisar de outras regulações que lidem com incentivos a pesquisa científicas e concorrência. Não conseguimos, com um único projeto de lei, lidar com todos os grandes desafios que a IA coloca."
China avança a passos largos
Tanto Schertel quanto Lemos concordam que o país mais avançado em medidas legislativas é a China.
Nas últimas semanas, a Administração do Ciberespaço da China criou uma série de diretrizes que se aplicam aos grandes modelos de linguagem como o ChatGPT e à IA generativa de modo geral.
Entre as regras, está a determinação de que os modelos sejam treinados com dados precisos, e que não possam gerar discriminação entre os usuários.
Além de incentivar os modelos locais, o regime chinês criou um registro obrigatório de algoritmos.
Segundo o projeto, os conteúdos gerados pela IA ainda devem "refletir os valores socialistas fundamentais e não devem apresentar conteúdo relacionado à subversão do poder do Estado". Também não devem conter propaganda terrorista ou extremista, ódio étnico ou outros conteúdos que possam perturbar a ordem econômica e social.
Pequim está atenta aos avanços do ChatGPT e, pouco após seu lançamento, proibiu o uso do app. Recentemente, o país fez sua primeira prisão ligada ao uso da IA. Segundo a polícia, um homem confessou ter usado o ChatGPT para criar fake news.
EUA apostam em princípios em vez de regulação
Nos Estados Unidos, o governo de Joe Biden publicou uma ampla orientação para o uso seguro de IA, após ser pressionado para monitorar o desenvolvimento da tecnologia.
Em reunião com CEOs do Vale do Silício, a Casa Branca pediu limites à inteligência artificial, numa demonstração pública de que o governo está preocupado com o assunto.
A proposta americana não é exatamente uma regulamentação, mas uma série de princípios a serem aplicados por órgãos da administração pública, como proteção contra discriminação algorítimica, garantia de intervenção humana nos processos, e segurança dos sistemas.
Para os especialistas, a regulação de IA está apenas começando no mundo. Embora haja disposições que se aplicam à tecnologia, ainda é raro encontrar uma lei abrangente tratando do tema.
Apesar do momento incipiente, Schertel diz que há consenso sobre a necessidade de criar propostas robustas para lidar com impactos concretos da IA na vida das pessoas.
"Não é ficção científica, são impactos imediatos. Dados equivocados, resultados discriminatórios, pessoas que podem não ter acesso a crédito ou eventualmente serem denunciadas de forma equivocada no sistema criminal. [Esses] São riscos imediatos que não podemos falhar na tarefa de mitigá-los."
Entre na comunidade de notícias clicando aqui no Portal Acessa.com e saiba de tudo que acontece na Cidade, Região, Brasil e Mundo!