A máquina é máscara: qual é o papel das novas tecnologias, como a IA?
Com seus algoritmos, empresas vêm definindo quase tudo o que consumimos no dia a dia, as marcas que devemos comprar e até as pessoas com quem interagimos
A internet está longe de completar meio século de existência, mas já falamos dela como se sempre tivesse estado aí. Desde o início, a noção que temos é que ela funciona como uma praça pública onde todos podem ser vistos e ouvidos da mesma maneira.
Conforme a conhecemos melhor, porém, entendemos que não é bem assim: existe uma coisa chamada “algoritmo”, que é o que decide quem realmente será visto e ouvido por quem. Daí vem o segundo erro mais comum em nossa avaliação: a crença de que algoritmos são “neutros”, “imparciais” e oferecem as mesmas chances para todo mundo.
Atualmente, há cada vez mais mentores na internet prometendo ensinar a “dominar” algoritmos para aumentar os números de seguidores e visualizações. Mas a verdade é que não tem como garantir isso, porque o funcionamento dos algoritmos nunca foi totalmente explicado. Cada rede cria as próprias regras — mas nenhuma jamais divulgou todos os detalhes de suas regras. Elas podem ser qualquer coisa, até seletivas e com definições bem específicas do que pode ou não viralizar, por exemplo, como nas piores teorias da conspiração.
Basicamente, algoritmos não são neutros nem imparciais porque cada empresa estabelece os próprios valores para medir a qualidade e o interesse de cada postagem e decidir como será sua distribuição e alcance. Esses valores não são absolutos matemáticos, mas estão cheios de juízos de “bom e mau”, “relevante e irrelevante” etc. — que, no fim das contas, são só e simplesmente valores humanos. Mesmo quando eles sofrem a deformação das tentativas de reduzi-los a números.
Ainda assim, são essas empresas com seus algoritmos que vêm definindo quase tudo o que consumimos no dia a dia, as marcas que devemos comprar e até as pessoas com quem interagimos. É um poder muito grande que delegamos a essas empresas e aos seus próprios valores. Fechar os olhos para isso cabe muito bem nos rótulos de “alienação”, “negacionismo” ou “escapismo” que temos sido tão rápidos em aplicar em outras discussões.
Tudo isso é bastante evidente, também, quando falamos nas inteligências artificiais e nos riscos que elas oferecem. Na literatura, no cinema e, cada vez mais, no senso comum, costuma ser sempre a tecnologia em si que traz mais riscos. É ela que se torna vilã, e que, se sair do controle, pode acabar provocando a extinção da raça humana na Terra. Como se todas as suas possíveis ações não tivessem obrigatoriamente uma base em valores humanos e nas intenções das pessoas que as estão construindo.
O potencial das inteligências artificiais é imenso, mas elas dependem exclusivamente de nossas escolhas. Até o momento, o que vemos são máquinas construídas para reduzir gastos e tempo de produção, para se tornarem diferenciais em uma corrida econômica que não acaba nunca. São máquinas criadas para a competição, para esse cenário onde o importante é ser “mais”, “maior”, “melhor” que o outro.
É por isso que as discussões sobre IAs sempre citam que seria perigosa uma inteligência “maior” que a humana. Uma inteligência “maior” só é perigosa em um cenário de confronto, não de colaboração.
Nada me convence que essas novas máquinas, com tanta capacidade, potenciais e informação disponível, não poderão em breve — e com facilidade — resolver problemas como a desigualdade social ou o aquecimento global, para citar o mínimo. Mas a pergunta aqui é: é para isso mesmo que elas estão sendo construídas? E então: qual é o rosto atrás da máquina?
Roger Dörl é escritor, com formação em teatro, e especialista na área de Letras, além de pesquisador da Filosofia, Psicologia e Espiritualidade. É autor do “Alena existe” (Ases da Literatura, 2024, 492 pág.) em que discute temas essenciais do mundo contemporâneo, como as implicações da realidade virtual e inteligência artificial em questões sociais e de saúde mental.