Refletindo sobre Inteligência Artificial e injustiças
A promessa da inteligência artificial é que ela melhore nossa vida. Entretanto, pode ser que isso não ocorra tal como esperado, uma vez que decisões, inevitavelmente, envolvem padrões éticos e avaliações morais complexas, o que pode resultar em injustiças
Recentemente veio a público uma carta escrita pela organização Future of Life Institute (22/03/2023) que pediu que sejam suspensos temporariamente o uso e as pesquisas sobre a inteligência artificial (IA) enquanto não houver uma regulamentação sobre o tema, e isso pelo receio que esta nova tecnologia possa trazer “riscos profundos para a sociedade e a humanidade”. Mais de mil e oitocentas pessoas já assinaram o documento na web, entre eles, líderes e pesquisadores do setor de tecnologia, tais como Elon Musk (CEO da SpaceX, Tesla e Twitter), Steve Wozniak (Co-fundador da Apple), Michael Osborne, Professor de Machine Learning da Universidade de Oxford e Yuval Hariri, Professor de História da Universidade Hebraica de Jerusalém, bem como por eticistas, tal como Danielle Allen, professora de ética e filosofia política da Universidade de Harvard. Alguns especialistas no tema e formadores de opinião alegaram um interesse mercadológico na carta, como forma de frear o avanço do ChatGPT desenvolvido pela Microsoft. Como signatário da carta, gostaria de aproveitar a oportunidade para refletir sobre os diversos problemas éticos que podem surgir com o uso massivo da IA, especialmente o problema da injustiça algorítmica.
A tecnologia orientada por IA, entendida aqui como a capacidade de um sistema – como um software ou incorporada em um aparelho – para executar tarefas comumente associadas a seres inteligentes, já é uma constante em nossas vidas, seja pelas recorrentes recomendações de filmes que recebemos pelos serviços de streaming, tal como Netflix e Amazon Prime, seja pelos filtros de e-mails que usamos, ou pela utilização de algum aplicativo de navegação por GPS, como o Waze, e ela não parece problemática em muitas áreas. Ao contrário, ela parece facilitar nossa vida. Entretanto, esta tecnologia está se estendendo progressivamente para certos domínios nos quais, provavelmente, terá um impacto maior, assim como decidir em circunstâncias de risco, estabelecer prioridades entre pessoas e fazer julgamentos complexos e, portanto, terá que tomar decisões que já se enquadram no domínio moral. Por isso, parece importante pensar sobre os algoritmos que alimentam esses produtos.
Os carros autônomos, por exemplo, precisarão tomar decisões sobre como distribuir o risco entre os passageiros, pedestres e ciclistas, isto é, entre os que utilizam as vias públicas. As armas autônomas letais terão que identificar e selecionar os alvos humanos que serão eliminados. Por sua vez, algoritmos que já estão em uso nos sistemas de saúde e judiciário em alguns países estabelecem a prioridade de quem receberá um transplante de órgão, bem como aconselham os juízes sobre quem deve obter liberdade condicional ou uma sentença maior de prisão. Até mesmo um aplicativo inocente como Spotify pode apresentar um problema ético em seu algoritmo, como sexismo. Uma pesquisa, conduzida por Andres Ferraro, Xavier Serra e Christine Bauer, demonstrou que o algoritmo da plataforma privilegia músicos homens, sendo as artistas mulheres pouco sugeridas. Quando testaram o algoritmo descobriram que, em média, as seis primeiras faixas recomendadas são de homens.
A promessa da IA é que ela melhore nossa vida, pois esses algoritmos podem, teoricamente, decidir sem vieses de gênero, raça ou classe, de forma lógica e racional, evitando qualquer parcialidade e discriminação. Entretanto, pode ser que isso não ocorra tal como esperado, uma vez que todas essas decisões referidas anteriormente, inevitavelmente, envolvem padrões éticos e avaliações morais complexas, o que pode resultar em injustiças. Por exemplo, os carros autônomos devem sempre se esforçar para minimizar as baixas, mesmo que às vezes isso signifique sacrificar seus próprios passageiros para um bem maior? As armas autônomas letais devem sempre objetivar a vitória, mesmo ao custo de eliminar um alvo civil ou um soldado ferido, o que colocaria em risco a dignidade humana? As crianças devem sempre ter prioridade para transplantes de órgãos, mesmo quando um paciente mais velho é uma combinação genética melhor para um órgão disponível? Os algoritmos usados em tribunais devem sempre procurar reduzir a reincidência, mesmo resultando em uma discriminação injusta para os réus negros?
Alguns usos da IA – como programas de reconhecimento facial, avaliação de currículos, classificação de fotografias por assunto e programas que influenciam as decisões judiciais no âmbito penal – têm revelado disparidades preocupantes de desempenho com base na raça e no gênero das pessoas. Essas disparidades levantam questões urgentes sobre como o uso da IA pode funcionar para promover a justiça ou consolidar a injustiça, podendo revelar, por exemplo, discriminação institucional, injustiça estrutural, como racismo, sexismo e preconceito de classe. Em uma era de crescente utilização da IA, a ideia de que o progresso tecnológico conduz a emancipação oportuniza uma grande expectativa. Mas isto pode ser ilusório, uma vez que os sistemas de IA são ainda ferramentas com as quais as pessoas podem exercer poder umas sobre as outras. E, como usual, podemos exercer o poder para promover a emancipação ou a subjugação humana.
De fato, a história recente apresenta vários exemplos do potencial da IA para refletir o preconceito humano. Consideremos o rastreador de currículos com inteligência artificial da Amazon. Ele de fato automatizou o sexismo, favorecendo sistematicamente os currículos dos homens, aparentemente porque o sistema foi treinado em dados coletados de currículos previamente enviados à Amazon, a maioria dos quais eram de homens. Da mesma forma, podemos apontar o classificador de fotos com IA do Google, que rotulou erroneamente os negros como “gorilas”, refletindo um estereótipo racista. Ou podemos considerar a análise de Buolamwini e Gebru (2018) de três programas de reconhecimento facial baseados em IA, revelando que eles têm pior desempenho em mulheres de pele escura, podendo prejudicar injustamente as mulheres negras no âmbito.
Reconhecimento facial
Com isso em mente, parece urgente a discussão sobre a injustiça algorítmica, sobretudo em um país tão desigual como o Brasil. Para tal, vamos analisar dois casos: os programas de reconhecimento facial usados pela polícia e o programa COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), que é usado para se avaliar o risco de reincidência de um réu em um processo criminal. Iniciamos pelo programa de reconhecimento facial, que cada vez é mais usado no Brasil como forma de identificar criminosos, o que parece positivo para a garantia da segurança pública. O reconhecimento facial é um método biométrico que utiliza técnicas de aprendizado de máquinas, em conjunto com as redes neurais artificiais, para realizar o match de uma imagem com o perfil da pessoa, uma tarefa desafiadora na sociedade complexa e diversa em que vivemos.
Devido a vários cenários, como o ponto de vista técnico que considera a câmera, iluminação e a expressão facial, e o ponto de vista sociológico de como a base de dados é coletada e filtrada, é necessário repensar a criação dos processos por trás destas tecnologias que partem de contextos normalmente ignorados na sociedade. E isso porque aumentaram muito as prisões injustas de pessoas negras a partir do uso de programas de reconhecimento facial, o que pode apontar que estes algoritmos estejam sendo treinados a partir de banco de dados enviesados, com pouca diversidade.
A reportagem de Hellen Guimarães mostrou que não são raros os casos de pessoas inocentes sendo presas por crimes que não cometeram, tendo sido identificadas de forma incorreta pelo chamado reconhecimento fotográfico. Ela reuniu diversos casos desses, relatando a prisão de um cientista de dados, um mototaxista, um motorista de app, um músico e um produtor cultural, todos homens negros. O problema é que as máquinas utilizadas no reconhecimento facial reproduzem as percepções de quem as criam e do tratamento fornecido aos bancos de dados que as alimentam. Isso em razão de questões estruturais sobre como a sociedade e o Estado determinam quem são os indivíduos que oferecem perigo e devem ser detidos.
O segundo exemplo são os programas usados no sistema judiciário norte-americano, como o COMPAS, que está sendo usado em quarenta e seis estados do sistema judiciário norte-americano, com o papel de prever quem reincidirá no crime, influenciando as decisões de liberdade condicional, fiança e condenações. O teste ProPublica, realizado em 2016, descobriu que o programa está frequentemente errado, além de ser tendencioso contra os negros. A comparação mostrou que o programa tende a apontar erroneamente réus negros como futuros criminosos, colocando-os na categoria de possíveis reincidentes quase duas vezes mais do que os réus brancos. Estes também foram classificados mais frequentemente como menos perigosos do que os réus negros.
Pensando em soluções
Assim, é urgente refletir em soluções no enfrentamento deste problema. Penso em duas dimensões importantes, uma ética e outra política. Na dimensão ética, creio que devemos nos esforçar enquanto indivíduos e sociedade para desenvolver a virtude da justiça, entendida como uma sensibilidade moral-política para reconhecer as discriminações de raça, sexo e classe e combatê-las. Já na dimensão política, creio que devemos criar medidas de fiscalização do uso da IA estabelecendo uma legislação que tenha por foco central o respeito aos direitos humanos e a proteção dos mais vulneráveis.
A conclusão a que podemos chegar é que, independente de razões mercadológicas que possam ter originado a carta comentada inicialmente, não devemos desperdiçar esta oportunidade de discutir como a IA deve ser regulada e que padrões éticos devem servir de bússola para sua aplicação. Como os exemplos tratados mostram, e como os recentes apelos por justiça, responsabilidade e transparência na IA reconhecem, o uso desta nova tecnologia levanta questões urgentes de justiça, sobretudo em um país como o Brasil, com desigualdades sociais marcantes, racismo e sexismo estruturais.
Denis Coitinho é eticista. professor do Programa de Pós-Graduação em Filosofia da Unisinos e Pesquisador CNPq.