A participação social em todo o ciclo de vida da tecnologia
Projeto de lei que chega à Câmara dos Deputados desidrata a participação social nos mecanismos de governança
A regulação de inteligência artificial no Brasil está prestes a enfrentar um novo capítulo. Chegou à Câmara de Deputados, aguardando despacho, a versão do PL 2338/2023 que busca estabelecer normas gerais de caráter nacional para a governança responsável de sistemas de inteligência artificial (IA) no Brasil. Seguindo a tendência global sobre regulação de inteligência artificial, que já é avançada em países e regiões como Canadá, União Europeia e China, diferentes setores no país articulam-se há anos em disputas técnicas e ideológicas sobre o que significa regular a tecnologia.
As atividades se intensificaram desde o estabelecimento de uma comissão de juristas em 2022 que, apesar de críticas sobre hegemonia de sua composição, realizou um processo de escuta que permitiu que diferentes setores opinassem no debate por meio de audiências públicas com 60 especialistas nacionais, 26 estrangeiros e o recebimento de mais de 100 contribuições escritas. O resultado gerou um projeto de lei mais simples e com menos mecanismos protetivos do que a regulação da União Europeia, mas que havia sido apoiado parcialmente pela sociedade civil em seus pontos positivos.

Crédito: Lula Marques/ Agência Brasil
Ao longo de 2024, a Comissão Temporária de Inteligência Artificial do Senado, presidida pelos senadores Carlos Viana (Podemos/MG) e Marcos Pontes (PL/SP), tornou-se responsável pela revisão do projeto em busca da aprovação efetiva na casa legislativa. Os níveis de participação social e transparência foram, em contraste, mínimos e com muitas lacunas de informação sobre o processo. Denúncias sobre o forte lobby das big tech e da indústria sublinharam tanto o assédio de organizações estadunidenses quanto táticas suspeitas de composição de audiências públicas que resultaram no afrouxamento de diversos artigos sobre governança, proteção a trabalhadores ou mecanismos de supervisão.
A direção do projeto de lei aprovado no Senado foi contrária aos apelos da sociedade civil. Ano passado, em declaração sobre participação social capitaneada pelo projeto Nanet (Ação Educativa, Abong e Ibase), e assinada por mais de sessenta organizações da sociedade civil e especialistas da academia, reivindicou-se que, para uma sociedade igualitária, participativa, sustentável, baseada na dignidade humana, com indivíduos livres e emancipados, devemos construir modelos democráticos e configurações institucionais que expressem esse ideal na regulação de IA.
A relevância da participação social no ciclo de vida de um sistema de IA pode ser exemplificada por, literalmente, milhares de casos de incidentes com inteligência artificial em torno do mundo. No Brasil não é diferente e podemos citar dois exemplos que nos mostram como a participação social e o escrutínio público dos algoritmos são essenciais em várias áreas, sobretudo em campos de alta importância como educação e saúde.
Na saúde, uma das principais cientistas brasileiras em aprendizado de máquina, a professora Sandra Ávila da Unicamp, relatou que, quando jovem, presenciou a exclusão deliberada de fotografias “fora do padrão” de uma base de dados para treinar sistemas de identificação de câncer de pele. As fotografias consideradas confusas eram justamente de pessoas negras em partes do corpo com menos melanina e mais suscetíveis à doença.
O caso não é isolado. O entusiasmo em aplicar aprendizado de máquina para identificar condições e diagnosticar doenças resultou em um histórico crescente de problemas. Entre estes, algoritmo usado nos Estados Unidos excluía pacientes negros para transplante, a Google já lançou aplicativo dermatológico sem testes em peles negras e um sistema para triagem de pacientes prejudicou potencialmente dezenas de milhares de norte-americanos.
Na educação, presenciamos como o lobby de empresas como a OpenIA tem levado governos, como o de Tarcísio Freitas em São Paulo, a tentar adotar tecnologias como ChatGPT negligenciando parâmetros estabelecidos por organismos internacionais que priorizam a construção de uma educação voltada para a autonomia e que valorizam a carreira docente como fundamental na produção de conhecimento sintonizado com as diversas realidades e demandas das comunidades escolares.
Outra vez, os grupos diretamente afetados pela decisão, educadores e estudantes, são excluídos do processo decisório. A ideia de eficiência tecnológica, que não se sustenta na prática real e penaliza não só a qualidade pedagógica como a própria rotina de trabalho dos educadores que relatam maior – e não menor – esforço para ajustar erros e adequar materiais.
Ashwini K.P., relatora especial das Nações Unidas, reafirmou em documento que Estados devem “estabelecer mecanismos robustos para a supervisão e monitoramento contínuo de ferramentas de inteligência artificial, incluindo auditorias regulares de seu impacto, para garantir adequação a regulações e abordar preocupações apontadas por indivíduos ou comunidades afetadas, assim como potenciais vieses gerados pelos modelos ao longo do tempo.
Os retrocessos no atual projeto de lei excluíram, por exemplo, trechos de versões anteriores que estabeleciam a possibilidade de que a autoridade supervisora competente estabelecesse critérios e elementos para a elaboração de avaliação de impacto que incluíssem a participação dos diferentes segmentos sociais afetados.
A inovação tecnológica, se realmente alinhada a possíveis benefícios coletivos e sociais, não pode se tornar uma ferramenta antidemocrática. Excluir segmentos sociais diretamente afetados pela adoção de sistemas de IA não só contradiz suas possíveis vantagens como também destrói possibilidades de melhoria de uma tecnologia ainda repleta de erros e falhas.
Diante do processo acelerado de digitalização que atravessa as dinâmicas sociais, torna-se essencial que os debates e decisões sobre inteligência artificial incorporem a diversidade de vozes que constituem o tecido social. A centralização dessas discussões em uma perspectiva exclusivamente técnica limita a participação democrática e negligencia os múltiplos impactos dessas tecnologias sobre corpos, territórios e trajetórias. Não se trata apenas de códigos, dispositivos ou sistemas computacionais, mas de questões éticas e políticas que dizem respeito ao conjunto da população e exigem abordagens plurais e comprometidas com justiça social.
Abrir espaço para que diferentes pontos de vista influenciem o modo como pensamos, usamos e desenvolvemos tecnologias é uma tarefa urgente. Isso implica na criação de espaços democráticos de participação, capazes de acolher a atuação da sociedade civil em toda a sua diversidade e complexidade, favorecendo a expressão de diferentes modos de existência e a construção coletiva de novos horizontes possíveis.
Juliane Cintra é jornalista, mestra em direitos humanos e coordenadora do projeto Nanet.
Tarcizio Silva é comunicador, doutor em ciências humanas e sociais e consultor do projeto Nanet.