SÃO PAULO, SP (FOLHAPRESS) - Quase todos dizem ser contra a discriminação e a favor da transparência e da compreensão, mas cada um pode dar diferentes sentidos a esses valores. Construir consensos sobre esses princípios é um passo fundamental para tornar as tecnologias com base em inteligência artificial mais éticas, segundo o pesquisador do Oxford Internet Institute Callum Cant, que coordena o projeto Fair Work For AI.
Patrocinada pela Aliança Global pela ação em IA, que reúne algumas das maiores empresas de tecnologia, essa iniciativa desenvolveu dez princípios para garantir que o desenvolvimento e o uso de inteligência artificial seja mais ético não só na publicidade. Para implementá-los, oferece consultorias a empresas como Microsoft, Uber e a entidades como a OIT (Organização Internacional do Trabalho).
Veja os dez princípios:
- Garantir trabalho decente, segundo as normas da OIT
- Montar cadeias de produção justas
- Compreensão --deve ficar claro aos trabalhadores da cadeia de produção como o algoritmo funciona
- Busca de equidade --evitar que os sistemas de IA aumentem a discriminação
- Tomada de decisões justa --acionistas envolvidos nesses projetos devem prestar contas
- Uso honesto dos dados --limitar a concentração de informação e considerar a proteção de dados pessoais
- Incrementar segurança --evitar a superexploração do trabalho e a vigilância
- Criação de empregos que resistam às mudanças e garantam estabilidade
- Evitar projetos inapropriados --os testes devem seguir altos padrões para prevenir danos
- Dar voz a coletivos de trabalhadores --ouvir diferentes atores, já que os riscos e as recompensas de sistemas de IA são entendidos de maneiras diferentes
Pergunta - Pode dizer os objetivos do projeto Fair Work for AI e como sua equipe trabalha para os alcançá-los?
Reposta - O avanço dos recursos de IA no mercado de trabalho cria muitas oportunidades, mas também muitos riscos, porque esses sistemas são frequentemente aplicados e desenvolvidos sem testes prévios. Nós já vimos como uma série de aplicações pode envolver riscos em termos de vieses e preconceitos, em termos de intensificação do trabalho, em termos de vigilância e assim por diante.
Começamos a trabalhar em uma parceria global sobre inteligência artificial para definir uma série de princípios sobre o que seria o trabalho decente dentro desse mercado de IA. Daí, podemos oferecer consultorias globais e tripartites para a Organização Internacional do Trabalho, a Uber, a Microsoft etc.
Nosso objetivo é entender o que essas empresas e organizações consideram justo [dentro de uma relação de trabalho] e produzir um relatório, no qual listamos dez princípios.
Agora que temos esses princípios definidos, vamos medir o quanto disso foi posto em prática e investigar o que tem acontecido no mundo real.
Pergunta - O caso dos quenianos trabalhando com moderação de conteúdo para o desenvolvimento do ChatGPT deixou claro que há trabalho humano sob diversas formas por trás de projetos de inteligência artificial.
Resposta - Todos os sistemas de IA desenvolvidos desde 2012 se apoiaram essencialmente no treinamento de máquinas com imensas quantidades de dados. Caso você mostre, por exemplo, muitas figuras de cavalo com indicação do nome do animal a um algoritmo, ele será capaz de determinar quais são cavalos e quais não são ao longo do tempo. Mas a parte da rotulagem da informação não acontece ao acaso. Muitos dados dependem de muitos trabalhadores para fazer a etiquetagem.
Nessa história recente do aprendizado de máquina, nós podemos perceber o desenvolvimento de plataformas como o Amazon Mechanical Turk, Clickworker, Microwork e outras mais, em que o objetivo é criar um mercado global com a terceirização da rotulagem de dados e da moderação de conteúdos, levando essas atividades aos locais com os menores níveis de remuneração no mundo. Existem registros até de crianças atuando nessas plataformas. Assim, esse trabalho pode ser feito com custos baixos e em grande escala.
No atual cenário da IA, parece que todo o raciocínio encontrado em um ChatGPT da vida surge da máquina, em vez de creditar a capacidade de falar ou produzir textos desse mecanismo a duas fontes: os dados usados nos treinos, que é a história da linguagem humana e da escrita, e as pessoas que etiquetam esses dados.
Pergunta - E hoje é possível desenvolver inteligência artificial com responsabilidade social? Caso sim, quais são os elementos que fariam o desenvolvimento dessa tecnologia ser responsável?
Resposta - É possível. Demandaria atenção em muitos pontos da cadeia de produção. Nós precisamos pensar uma maneira em que os sistemas de IA sejam literalmente treinados para computar o que foi feito em cada passo do processo de aprendizado de máquina. De onde vêm os recursos gastos para fazer aquela operação também. Placas de vídeo e computadores são grande parte desse trabalho. Globalmente, é necessário considerar a mineração responsável pela matéria-prima envolvida na produção dessas peças, observar para onde vão os rejeitos, como é o uso de energia, se há gasto de combustíveis fósseis e também é preciso considerar o processo de rotulagem de dados.
Essas pessoas que classificam informação podem ter trabalho decente. Mas isso requer padrões muito mais altos do que os praticados pelo mercado. É interessante ver alguns think tanks financiados pelo Google estudando como isso pode ser feito, de uma maneira que as grandes corporações também estejam confortáveis para pôr em prática. Mas isso exigiria uma mudança significativa na maneira que a indústria opera neste momento.
É importante também refletir se os consumidores também são afetados de alguma maneira. Os vieses intrínsecos dessas tecnologias levam à fragmentação social? Para refletir sobre justiça em inteligência artificial em termos realmente amplos é necessário pensar em uma sociedade que encare a questão da tecnologia de uma maneira ética.
Pergunta - E você disse que está trabalhando com grandes multinacionais no projeto Fair Work for AI. Essas companhias mostram interesse em fazer essa tecnologia mais sustentável agora?
Resposta - Parece haver interesse. Claro que é limitado por interesses comerciais. Em uma economia privada, corporações não tomam decisões porque elas parecem legais ou parecem ser boas. Eles agem para conseguir vantagem competitiva, eles fazem mudanças para aumentar lucros e posicionar seus produtos no mercado. Então há um incentivo contraditório, em que as corporações querem lucrar o quanto for possível. Mas resta espaço para fazer ajustes que permitam aumentar a integridade gradualmente ao longo do tempo.
Pergunta - Há alguma lei ou regulação neste setor em discussão neste momento, que pode servir como exemplo para o resto do mundo?
Resposta - Tem muita coisa em estágios iniciais. O ato sobre inteligência artificial da União Europeia mostra potencial ao criar diretrizes sobre trabalho em plataforma, mas isso está sob contestação no Parlamento Europeu. Ainda assim, essa medida apresenta pontos interessantes no sentido de compreensão da tecnologia.
Neste momento, não existe uma legislação que sirva como paradigma para apontar. Nós estamos no processo de desenvolver algumas dessas leis. Mas parece que o processo de formulação será difícil, porque desde o início há muitos interesses em jogo, e lobistas já tentam influenciar o processo.
Eu não esperaria que governos fossem nessa direção sem estar sob pressão. Se queremos realmente que esse processo de desenvolvimento tecnológico se encaminhe de uma forma que respeite os trabalhadores, cabe aos sindicatos, associações da sociedade civil e movimentos sociais demandar padrões mais altos.
Pergunta - Organizações como a Sama [que terceirizou trabalho de moderação no Quênia para treinar o ChatGPT] se autodenominam companhias de IA ética.
Resposta - Para o sr., o que seria uma IA ética? Eu tenho sérias preocupações sobre como aqueles trabalhadores quenianos foram tratados. E eu diria que no presente parece que eles não foram tratados de maneira justa. Isso levanta suspeitas sobre a possibilidade de um teatro para se mostrar ético e o risco de que as diretrizes que são anunciadas publicamente não sejam levadas a cabo na operação real. Precisamos ter muito cuidado com corporações que usam o discurso da ética e de responsabilidade social, enquanto não o coloca em prática.
Essa preocupação pode garantir às pessoas que estão rotulando dados postos seguros e bem pagos, dos quais eles podem depender no longo prazo, pode significar respeitar as importantes medidas contra o trabalho infantil e outros direitos.
Callum Cant, 31
Coordena o projeto de pesquisa Fair Work for AI em parceria com a Global Partnership on Artificial Intelligence, que visa desenvolver inteligência artificial com responsabilidade social. É pesquisador de pós-doutorado no Oxford Internet Institute. Seu primeiro livro, "Delivery Fight! - A luta contra os Patrões sem Rosto" (Veneta, 2021), conta a experiência dos entregadores londrinos em primeira pessoa.
Entre na comunidade de notícias clicando aqui no Portal Acessa.com e saiba de tudo que acontece na Cidade, Região, Brasil e Mundo!