SÃO PAULO, SP (FOLHAPRESS) - A etíope Timnit Gebru ficou célebre depois de acusar um viés racista do Google no desenvolvimento de Inteligência Artificial (IA). Ex-coordenadora de ética em IA da big tech, ela alerta para os riscos dessa tecnologia, que contribui para uma "sociedade cada vez mais carcerária e punitiva".

Fora do circuito das grandes empresas de tecnologia há dois anos, Gebru hoje é conselheira do grupo de pesquisa Black in AI (negros em IA) e fundadora do Instituto de Pesquisa de IA Distribuída (Dair, na sigla em inglês).

Gebru, 39, conseguiu asilo político nos Estados Unidos em 1999. No país, ela se formou na Universidade Stanford. Trabalhou na Apple e na Microsoft antes de chegar ao Google --do qual foi demitida após mandar um email coletivo criticando a condução da IA na empresa. À época, Jeff Dean, chefe da unidade de IA a empresa, disse aos funcionários que Gebru havia ameaçado se demitir após exigir explicações sobre um artigo não publicado, e aceitou a demissão da cientista.

Sobre a repercussão global do caso Blake Lemoine --outro funcionário do Google afastado por enxergar um problema ético na big tech--, a pesquisadora diz que trata-se de uma distração para problemas gerados pelo reconhecimento facial, como encarceramento em massa e vigilância.

Neste ano, o engenheiro classificou um robô de bate-papo do Google como "senciente", ou seja, dotado de alguma percepção de sentimentos. "O que me frustra é que o entendimento público de sistemas de IA é muito moldado por filmes, não pela realidade", diz em entrevista à Folha de S.Paulo por videochamada.



PERGUNTA - Neste ano, Blake Lemoine, engenheiro sênior do Google, foi afastado após chamar um chatbot da empresa de "senciente". Como esse debate pode influenciar negativamente ou até mistificar o desenvolvimento da IA?

TIMNIT GEBRU - Muitos casos semelhantes andam aparecendo, com muitas empresas de tecnologia que querem a inteligência artificial geral [capacidade de entender qualquer habilidade, assim como o ser humano]. Parece um Deus que tudo sabe, e esses bilionários estão fazendo dinheiro a torto e a direito.

P.- A conversa que eles estão empurrando são abstrações como "e a consciência?", "e a senciência?".

TG- Isso faz com que esqueçamos que são ferramentas que estamos construindo. São coleções de programas, números, hardware e software. Essas ferramentas são construídas por pessoas e instituições específicas para propósitos específicos. Em todos os processos existem pessoas.

Isso é uma completa distração. Como um tipo de ficção científica. O que me frustra é que o entendimento público de sistemas de IA é muito moldado por filmes, não pela realidade. E a indústria cinematográfica poderia escrever bem melhor, para educar o público.

P.- O reconhecimento facial para a segurança pública tem avançado no Brasil. No entanto, a tecnologia é contestada por falta de precisão e bases de dados mal estruturadas. Como a sra. vê esse crescimento?

TG- Temos que defender muito bem que o reconhecimento de rostos brancos é perigoso [assim como o de negros]. Pode ser muito difícil para as pessoas entenderem, porque não estamos falando sobre uma bomba nuclear ou algo nessa linha. No reconhecimento facial, as pessoas podem entender como "eu consigo reconhecer rostos, por que isso é um problema?".

O ponto é que humanos reconhecem rostos, mas não podem reconhecer 6 bilhões de rostos, não conseguem conectá-los a uma base de dados e dizer quem é aquela pessoa, o que ela já fez. Você não pode fazer isso enquanto um humano. É essa capacidade que você está dando ao Estado [com a IA].

Em vez de criar um futuro diferente no qual não estamos construindo um Estado carcerário, estamos criando um futuro terrível e amedrontador onde temos o Big Brother [o grande irmão, associado a tecnologia de vigilância]. Muita gente aponta para a China, mas você não precisa ir para lá --os EUA têm ferramentas de reconhecimento facial que são como águias perseguidoras.

O movimento é policiado. Temos que fazer um trabalho melhor para explicar por que não deveríamos querer isso. Muita gente acha que o reconhecimento facial vai fazê-las se sentir mais seguras, que a vigilância vai garantir essa segurança.

O segundo ponto é que estamos criando uma sociedade ainda mais carcerária e punitiva. Estamos ampliando o poder de polícia do Estado.

P.- Qual é o problema central do avanço da IA, principalmente nos países periféricos?

TG- Existem muitos. Um deles tem a ver com o aumento da desigualdade entre países, locais e pessoas que estão centralizando o poder. O Vale do Silício, por exemplo, é uma região pequena que concentra muito poder. Há muitos bilionários falando coisas aleatórias, mas na região não tem transporte público. Existem muitas pessoas sem teto. As universidades públicas não recebem investimentos. Muitos estudantes negros e imigrantes não têm apoio do Estado. E isso acontece do lado dessa região que tem tanto poder. É uma região que tem muito controle do mundo todo, mais do que outros países. As multinacionais têm muito dinheiro, poder e estão definindo políticas para todos.

Esse crescimento da desigualdade é muito colonial. É pegar a matéria-prima, seja por meio do trabalho ou de dados de todo o mundo, embalá-la e vendê-la por muito dinheiro. É uma relação colonial, e acho isso assustador. Tem sido usado para centralizar o poder por aqueles que o roubaram por meio da colonização.

A segunda parte é que a IA é usada por governos autoritários contra seu próprio povo. Para impedir as pessoas de seus deveres cívicos, para espionar os cidadãos. Isso também é assustador. É expandir o sistema carcerário.

P.- A sra. fez sua carreira em empresas como Apple, Microsoft e Google. Hoje a sra. atua como pesquisadora. Como foi fazer essa migração?

TG- O que estou tentando fazer com meu instituto é criar um lugar seguro para pessoas que querem ter um caminho e uma abordagem diferente, que querem trabalhar com IA ou qualquer coisa relacionada.

Para mim, essa é a fundação para uma visão diferente de futuro. Qualquer pesquisa que desenvolvemos prioriza pessoas que estão à margem. Fazemos isso porque muitas tecnologias prejudiciais são testadas e experimentadas primeiro em pessoas periféricas.

RAIO-X

Timnit Gebru, 39,

Cientista da computação etíope que trabalha com ética para a Inteligência Artificial. Passou por empresas como Apple e Microsoft. Em 2020, foi demitida do Google após acusar a empresa de racismo e censura em uma troca de emails. É fundadora do Dair (Distributed Artificial Intelligence Research Institute) e co-fundadora e conselheira do instituto Black in AI.


Entre na comunidade de notícias clicando aqui no Portal Acessa.com e saiba de tudo que acontece na Cidade, Região, Brasil e Mundo!