SÃO PAULO, SP (FOLHAPRESS) - Entra em vigor nesta quarta-feira (5), na cidade de Nova York, regulação que exige "auditorias de viés" em empresas que usam inteligência artificial para selecionar currículos de candidatos e determinar promoções de funcionários.

A lei, baixada pelo departamento de proteção do consumidor e do trabalhador da cidade, determina a todas as empresas e agências de empregos que usam "instrumentos automatizados" para contratação que realizem anualmente auditorias de viés em seus algoritmos e as tornem públicas. As análises, que devem ser conduzidas por auditores independentes, estabelecem o grau de impacto do uso de IA na seleção de candidatos de determinada raça, etnia ou sexo e possível discriminação.

Muitas empresas usam inteligência artificial para processos de contratação, recorrendo a software que filtra currículos por palavras-chave e chatbots que dão nota a entrevistas de candidatos.

Houve relatos de diversos episódios em que os algoritmos acabam prejudicando certos candidatos. Em 2018, por exemplo, a Amazon suspendeu o uso de uma ferramenta que filtrava candidatos a vagas dando notas de zero a cinco estrelas aos currículos enviados. A gigante de ecommerce se deu conta de que o algoritmo estava prejudicando mulheres que se candidatavam para desenvolvimento de software ou outras vagas técnicas. Isso ocorria porque o algoritmo se baseava em padrões de currículos enviados à empresa nos dez anos anteriores. A maioria vinha de homens, e o algoritmo "aprendeu" que candidatos homens eram preferíveis. Currículos que tinham as palavras "feminino" ou "mulheres" eram penalizados.

"Há muitos casos de discriminação algorítmica, modelos que foram usados em larga escala e após oito, dez anos, quando foram auditados por organizações da sociedade civil ou pesquisadores da academia, ficou evidente a discriminação intrínseca", diz Dora Kauffman, professora do Programa de Tecnologias da Inteligência e Design Digital da PUC-SP.

A regulação de Nova York é a primeira dos EUA a abordar viés de algoritmos em contratações. As poucas regulações de IA ou redes sociais nos EUA têm sido aprovadas em nível municipal ou estadual. Legislações federais têm enfrentado grande resistência por causa da bancada de congressistas ligados ao Vale do Silício. Califórnia, Nova Jersey, Vermont e Distrito de Columbia são outros estados discutindo regulamentação de IA em contratação.

"A lei de Nova York chega em um momento em que há um consenso de que é preciso regular os impactos da IA; no Brasil, temos o PL 2338, temos o AI Act, a proposta europeia em fase final de negociação, e vários projetos em discussão ao redor do mundo", diz Laura Schertel, presidente da Comissão de Direito Digital da OAB Federal e professora da UnB (Universidade de Brasília).

No Brasil, o projeto de lei 2.338, do senador Rodrigo Pacheco (PSD-MG), também prevê transparência, direito a recurso e auditorias no contexto de uso de IA para contratações e decisões de emprego. Ele classifica como de "alto risco" sistemas de inteligência artificial usados para "recrutamento, triagem, filtragem, avaliação de candidatos, tomada de decisões sobre promoções". E o projeto, que está em tramitação, estabelece que sistemas de alto risco precisam passar por avaliação dos dados usados "com medidas apropriadas de controle de vieses cognitivos humanos" para evitar "a geração de vieses por problemas na classificação, falhas ou falta de informação em relação a grupos afetados, falta de cobertura ou distorções em representatividade".

O texto foi elaborado a partir de um anteprojeto de uma comissão de juristas presidida pelo ministro do STJ (Superior Tribunal de Justiça) Ricardo Cueva e relatado pela advogada Laura Schertel. Em vez de ser setorial como a lei americana, é horizontal e se aplica a vários setores, baseados em riscos de cada uso da IA. "No Brasil, por ser um país extremamente desigual, é muito importante examinar com cuidado vieses de IA nesse contexto de contratação, porque dados históricos que alimentam algoritmos muitas vezes refletem uma realidade desigual."

Apesar de celebrarem o fato de a cidade adotar uma regulação, críticos acreditam que as regras de Nova York não serão suficientes para coibir a discriminação algorítmica. A lei não inclui, por exemplo, vieses que prejudiquem pessoas idosas ou com deficiências. E as regras das auditorias, ainda segundo críticos, poderiam ser facilmente burladas, porque definem "automação" em sentido muito estrito, apenas quando IA é a principal responsável pela decisão. Normalmente, o algoritmo é usado para filtrar os melhores candidatos entre milhares de currículos, e a decisão final é tomada por um humano.

A lei nova iorquina, aprovada em 2021, também exige transparência: todas as empresas que usam inteligência artificial em contratações e promoções precisam informar os candidatos.

Entre as modalidades de IA usadas nessa área estão software que filtra currículos e recomenda os melhores candidatos para uma vaga aberta; algoritmos que localizam ofertas de emprego e enviam as mais compatíveis para candidatos; programas que coletam informações de redes sociais para estabelecer perfil de personalidade para candidatos, e chatbots que fazem perguntas para determinar se os postulantes devem ser selecionados para uma entrevista.

"O desafio é quem vai auditar. As autoridades regulatórias em geral têm baixo conhecimento sobre a tecnologia, e dada a complexidade e a proteção dos algoritmos sobre o sigilo comercial, são restritos os profissionais capazes de exercer esse papel", diz Kauffman. "A discriminação nem sempre é óbvia, e uma auditoria precária pode trazer malefícios."


Entre na comunidade de notícias clicando aqui no Portal Acessa.com e saiba de tudo que acontece na Cidade, Região, Brasil e Mundo!