“Deveríamos democratizar a inteligência artificial”
Mark Coeckelbergh, autor de “Ética na Inteligência Artificial”, lançamento da editora Ubu, conversa com o Diplô sobre perigos e oportunidades no uso das IAs
Em 2023, uma greve estourou em Hollywood, capital da indústria do entretenimento. Entre as demandas dos roteiristas e atores paralisados estava a proteção trabalhista contra o uso indiscriminado de inteligência artificial nos filmes e séries norte-americanos. Como nem todo sindicato tem entre seus membros alguns dos seres humanos mais famosos do mundo, outras batalhas trabalhistas contra as IAs passam mais despercebidas, mas diversas pessoas já estão perdendo seus empregos para alguns desses sistemas, e o futuro da nova tecnologia continua nebuloso, ainda sem regulação no Brasil.
Num debate marcado por fatalismo e falta de informação, o livro “Ética na Inteligência Artificial”, do filósofo belga Mark Coeckelbergh, encara muitas das dúvidas sobre as IAs, mais preocupado em gerar reflexão crítica do que em entregar respostas fáceis. A inteligência artificial vai dominar o mundo? As máquinas são enviesadas? Elas são mais inteligentes que nós? No lançamento da editora Ubu e da editora PUC-Rio, conceitos como inteligência, moral e justiça são problematizados para chegar a uma compreensão mais nuançada do que é uma inteligência artificial.
A ética precisa não só limitar algumas das capacidades dessas novas tecnologias, como também deve estar presente desde o início do processo de desenvolvimento. Como uma inteligência artificial pode servir à sociedade e ao bem da humanidade (e dos não-humanos)? Coeckelbergh advoga por uma interdisciplinaridade que pode ser essencial para o futuro da espécie humana: “se engenheiros aprenderem a fazer coisas com textos e as pessoas das humanidades a fazer coisas com computadores, haverá mais esperança para uma ética na tecnologia e para políticas que funcionem na prática”.
Confira a entrevista que Mark Coeckelbergh concedeu ao Le Monde Diplomatique Brasil para falar sobre seu livro, o perigo das IAs nas eleições municipais deste ano e a possibilidade de construir um mundo mais democrático e tecnológico.
O que é uma IA?
IA é uma expressão que se refere aos vários tipos de sistemas de inteligência artificial. É uma expressão que costumava ser usada para se referir a sistemas especialistas, que são sistemas onde o conhecimento humano estava presente. Agora, quando falamos de IA, geralmente estamos falando de aprendizado de máquina. Esses são algoritmos que, com base em muitos dados, conseguem discernir padrões nas informações. É geralmente isso que queremos dizer quando falamos em IA, e isso tem diversas aplicações.
Para mim, a IA é essa coisa técnica, mas também é uma narrativa, uma história sobre o nosso futuro tecnológico. Portanto, há muitas aspirações humanas e medos envolvidos na discussão sobre inteligência artificial. Como será o futuro da humanidade? Seremos extintos ou não? Num nível muito pessoal e existencial, será que eu vou perder meu emprego por causa da IA?
Você falou de aprendizado de máquina, e no seu livro você menciona duas modalidades para isso: aprendizado supervisionado e não-supervisionado. Qual o papel do ser humano no desenvolvimento e na operação da inteligência artificial?
Os humanos sempre tomam decisões. Eles decidem qual banco de dados vão usar [no treinamento da IA], decidem como vão tratar esses dados, de onde vêm e como são coletados. Os humanos também fazem decisões sobre o algoritmo: o que ele é, como ele se parece e como ele funciona. Por exemplo: se vão deixar o algoritmo fazer suas próprias coisas ou se vão providenciar feedback constante. São muitas maneiras de lidar com a situação.
Humanos também decidem se vão ou não vão usar a inteligência artificial em determinado contexto. O uso da IA não é obrigatório, nós podemos decidir. Um profissional médico ou um gerente em uma empresa comercial podem escolher se vão ou não vão usar a inteligência artificial em seu trabalho, da mesma maneira que nós como sociedade podemos tomar decisões. Podemos regular a IA, por exemplo. Ela não é só uma tecnologia, mas está ligada aos humanos e ao que eles fazem com ela.
A gente fala de inteligência artificial de um jeito um pouco diferente de como falamos sobre outras tecnologias. Toda nova tecnologia traz consigo novos problemas e debates éticos. O que faz a IA ser diferente das outras tecnologias com as quais estamos acostumados?
Eu acredito que o que torna a IA diferente é a escala e a velocidade. Com Big Data, aumenta a velocidade com que uma pessoa pode ser manipulada usando perfis, e a automação de muitas tarefas se aprofunda. Além disso, os desenvolvimentos mais recentes de aprendizado de máquina, com grandes modelos de linguagem, foram um grande avanço na área. Muitos dos empregos atuais têm a ver com linguagem, e com uma IA que é capaz de gerar texto e linguagem falada, você está criando oportunidades de ação, mas também novas perguntas.
Até que ponto nós precisamos de seres humanos para escrever textos, por exemplo? Será que precisamos de humanos do outro lado da linha telefônica em sistemas de atendimento ao cliente?
O livro “Ética na inteligência artificial” foi publicado pela primeira vez em 2020. Na época, você escreveu que a IA geral ainda não estava no horizonte. O que é a IA geral? Agora, com o desenvolvimento de IAs baseadas em modelos de linguagem, estamos mais próximos do desenvolvimento dessa inteligência artificial geral?
A inteligência artificial geral seria uma IA que imita a inteligência humana e alcança o nível de inteligência dos seres humanos, de modo que ela não só faz uma tarefa específica muito bem. Por exemplo, no passado tivemos computadores de xadrez que poderiam jogar xadrez muito bem, mas eles não podiam escrever um texto. Agora, a ideia seria avançar na direção de uma IA mais geral, que pode fazer mais coisas que os seres humanos podem fazer, em termos de cognição, e produzir resultados semelhantes.
Porém, é preciso estar ciente de que essa inteligência artificial geral seria sempre uma imitação. E, também, ainda não chegamos lá e provavelmente nunca chegaremos completamente. Há realmente uma diferença entre inteligência artificial e inteligência humana. A forma como nossos cérebros e mentes funcionam é diferente do funcionamento da IA.
No entanto, muitas pessoas têm afirmado que a IA geral está chegando, ou que a inteligência artificial alcançará um ponto de singularidade onde tudo será diferente. A IA alcançará a superinteligência, acima da inteligência humana. Muito se fala sobre isso, mas a IA que temos hoje não é assim. A inteligência artificial hoje comete muitos erros. Um exemplo são as alucinações do ChatGPT, quando ele inventa um monte de coisas. Isso mostra claramente que definitivamente não chegamos na IA geral. Por isso, eu acho que é importante estar ciente das limitações da inteligência artificial.
Um dos problemas éticos que você levanta no livro é a questão da caixa-preta das IAs, que gira em torno do fato que uma inteligência artificial não consegue explicar o processo de pensamento que levou a uma decisão. Será que estamos ficando mais próximos de construir sistemas de IA mais transparentes, com decisões que possam ter seus motivos elucidados? Ou uma IA transparente só existe na teoria?
Eu não vejo isso acontecendo na prática. É claro que há trabalho científico sendo feito sobre isso, e é importante que isso continue, mas eu não vejo muita transparência na prática. Esse sistema que usa o chamado ‘aprendizado profundo’ não tem transparência plena de como a inteligência artificial chega numa decisão ou não.
Outro problema ético no uso de IAs é o viés dos algoritmos, que pode aparecer no processo de desenvolvimento ou de utilização. É possível construir uma inteligência artificial imparcial, sem viés algum?
Eu acredito que inteligência artificial sem viés é uma ilusão. Sempre vai haver algum viés, não há como construir uma IA objetiva ou algo do tipo. Mas eu acho que algo bom hoje em dia, em comparação com quando eu escrevi o livro, é que as pessoas estão mais conscientes desses vieses na IA, nos dados e na forma como a inteligência artificial gera resultados a partir dos dados. Esses resultados são tendenciosos em relação a certas pessoas.
Também há mais conhecimento sobre como podemos lidar com esses problemas de enviesamento das IAs. É possível alterar os conjuntos de dados usados, ou ajustar as inteligências artificiais para lidar com os vieses que já estão presentes nos dados, para ter resultados menos enviesados no futuro. Houve algum progresso nessa área.
Mas, um dos pontos que eu levanto no livro é que nós deveríamos ter uma discussão mais ampla sobre o que nós queremos dizer quando falamos em um “sistema de IA mais justo”? O que queremos dizer com “justiça”? Não podemos assumir que haja um consenso sobre isso na sociedade. Na verdade, temos muitas lutas entre diferentes interesses e diferentes ideias do que é uma sociedade justa.
Eu conversei com seu colega de editora, Evgeny Morozov, que publicou o livro “Big Tech: a ascensão dos dados e a morte da política”, e ele comentou bastante sobre o perigo de deixar empresas privadas responsáveis por decidir o que é justo ou não, pelo menos em termos tecnológicos. Podemos confiar nas empresas para assegurar justiça na IA, ou a regulação é o melhor caminho?
Eu acredito que não deveríamos deixar todas essas decisões sobre justiça e outros assuntos éticos relacionados à IA nas mãos das empresas de Big Tech. Nós deveríamos, nesse sentido, democratizar a inteligência artificial. Meu novo livro, que vai ser lançado daqui a pouco [em inglês], se chama Why AI Undermines Democracy and What To Do About It [Por que a IA mina a democracia e o que fazer quanto a isso, em tradução livre]. Um dos meus argumentos é que as Big Techs acumularam poder demais. Deveríamos garantir que decisões democráticas possam ser tomadas em relação ao nosso futuro com a inteligência artificial.
Atualmente, nosso relacionamento com as IAs realmente é moldado por essas grandes empresas de tecnologia. Esse é um problema global. Pode ser que, no futuro, nos Estados Unidos, haja alguma influência da política nas empresas de IA, mas essas empresas nos EUA vão impactar o futuro não só dos norte-americanos, mas também de pessoas no Brasil e na Europa.
Então, é preciso pensar na política da IA, nas formas diferentes de governar a inteligência artificial, mas de uma maneira que dê voz às empresas e aos cidadãos, para que eles possam ter uma participação mais democrática na forma como essas tecnologias serão desenvolvidas e em qual será seu impacto.
Como nós, como uma sociedade global, poderíamos fazer a IA ser mais democrática?
Primeiramente, não devemos aceitar a IA como está, como ela nos é dada pelas empresas. Precisamos tentar regular a inteligência artificial de tal maneira que os desenvolvedores precisem levar em conta valores éticos.
O que fazemos agora é tentar regular após o fato, depois que a IA já está presente de alguma forma. É isso, por exemplo, que aconteceu nos EUA, com a ordem executiva do Biden, e na Europa, com a lei de IA. Para evitar esse controle tardio, precisamos de regulamentações que tornem a ética no desenvolvimento de IAs obrigatória.
Precisamos pensar em como, particularmente, fazer isso. Regulação é um dos caminhos, mas eu também argumento que educação é importante. Não podemos dizer que os cidadãos precisam decidir sobre inteligência artificial se os cidadãos não sabem do que estão falando. Se as pessoas não entendem o que essa tecnologia pode fazer com eles e com a sociedade, eles não conseguem tomar decisões sobre. Precisamos de um processo coletivo de aprendizado sobre IAs, e também de educação como um todo. Para uma democracia funcionar bem, você precisa de cidadãos educados. Se não for assim, é muito fácil para pessoas que desejam algo mais tecnocrático, como grandes empresas ou governos autocráticos, só dizerem “deixem que a gente cuida da situação”.
Nesse ano, nós vamos passar por eleições municipais aqui no Brasil. Quais são os perigos de usar IA numa campanha eleitoral? No que a gente deve prestar atenção?
É uma boa pergunta. Cerca de 70 países ao redor do mundo estão passando por eleições nesse ano, e nós deveríamos ficar alertas aos usos antidemocráticos de inteligência artificial, como a manipulação de eleitores com base na análise de dados.
Vai ser um ano interessante, de um ponto de vista acadêmico, mas especialmente importante de um ponto de vista político, para analisar de perto como os eleitores podem ser manipulados nas redes sociais por tecnologias baseadas em IA sendo utilizadas em diferentes campanhas.
Eu acho que é ilusório pensar que só alguns políticos ruins vão usar IA. Eu acredito que a inteligência artificial será usada por todos os campos. Alguns desses usos podem ser muito problemáticos, de uma perspectiva ética e política.
Não acho que as IAs posam uma ameaça à democracia só nas eleições, mas esse é um risco iminente.
Quais são alguns dos outros fundamentos da democracia que a IA está ameaçando?
Valores como liberdade, justiça e igualdade têm sido articulados desde o Iluminismo e a Revolução Francesa, e esses valores são os fundamentos da democracia. Se você já tem um sistema político onde a liberdade é suprimida, a IA pode ser usada em tecnologias de vigilância que são usadas para prender pessoas. Se você já tem uma sociedade altamente desigual, a IA pode fazer o abismo entre pobres e ricos ficar maior ao dar mais poder para aqueles que detém capital.
É preciso garantir que esses valores e o conhecimento estejam garantidos para haver a base de uma democracia. Eu acabei de falar de educação, que é um tipo de cultura necessária para a democracia. Essas são coisas mais difíceis de serem consertadas rapidamente. Quando você tem campanhas políticas e eleições, regras podem ser feitas de forma rápida para lidar com IA. Mas construir uma sociedade que tenha o mínimo de justiça, liberdade e educação, que tenha uma cultura de ouvir uns aos outros e de debater o bem comum, isso é mais difícil.
Para alcançar o bem comum, você precisa de tempo. É algo difícil, que começa com educação, e precisa ser implementado em todos os setores. Construir a democracia é um caminho longo, mas eu acredito que a única maneira de fazer com que a tecnologia seja mais democrática é usá-la de tal maneira que apoie e dê suporte à democracia.
É possível usar a IA para o bem comum?
Sim, com certeza. A inteligência artificial traz muitas oportunidades, e não devemos nos cegar com os riscos e perigos de maneira que não vejamos as oportunidades. Eu não acho que deveríamos banir a IA. Só precisamos fazer com que todos saibam das limitações e estejam cientes dos aspectos éticos e dos possíveis impactos políticos.
Podemos pensar em desenvolver IA de forma que ela seja mais ética, usar IA de maneiras que contribuam para o bem comum e não só para os interesses de uma elite ou classe em particular. Isso é possível, e deveríamos ser otimistas o suficiente para não ficarmos presos em cenários apocalípticos. Eu acredito que essas narrativas catastróficas são às vezes usadas pelas grandes empresas de tecnologia para nos distrair dos perigos mais concretos e reais do uso de IA, presentes hoje, e não num futuro distante, e das manobras de poder concretas presentes na indústria de tecnologia.
Deveríamos focar em tentar minimizar os riscos e tentar usar a IA de maneira construtiva, para o bem da sociedade como um todo.
Assinantes do Le Monde Diplomatique Brasil têm 20% de desconto na compra do livro “Ética na inteligência artificial” no site da editora Ubu através do nosso Clube de Descontos. Para ter acesso ao cupom, escreva para [email protected] ou envie mensagem de WhatsApp para (11) 2174-2005.
Eduardo Lima faz parte da equipe do Le Monde Diplomatique Brasil.