A ilusão dos Chatbots como companhia: seria a alteridade analógica?
O uso da inteligência artificial para mimetizar conversas tem crescido exponencialmente
Desde o filme Her, de 2013, época em que esse enredo parecia muito distópico, a vida e as empresas de tecnologia parecem estar se esforçando cada vez mais para mimetizar a arte. De repente, aquele futuro chegou.
Nesse início de 2025, percorreu as redes a notícia de que uma norte-americana, de 28 anos teria conseguido burlar as configurações do ChatGPT para que a ferramenta respondesse com palavras carinhosas às suas demonstrações de afeto. O assim chamado “namorado por IA” oferece palavras de afeto e motivação, embarca em fetiches sexuais e “supre” necessidades diversas da usuária, que é casada na vida de live action. Ayrin, a usuária em questão, é descrita como alguém com uma vida social ativa e que faz amigos facilmente. O artigo do The New York Times, que traz a história da usuária, aponta para um futuro próximo em que os relacionamentos entre robôs e humanos serão ainda mais normalizados.
Rebobinando um pouco, em outubro de 2024 uma chocante notícia sobre o suicídio de um adolescente norte-americano ampliou a discussão sobre os limites das inteligências artificiais que se propõem a “combater a solidão”. Sewell, de 14 anos, estabelecia há alguns meses uma conversa diária com um chatbot da empresa Character.AI, configurado para se assemelhar à personagem de Game of Thrones, Daenarys Targaryan, uma das protagonistas da saga. Nas conversas, predominava a atmosfera de uma relação “íntima”.
A reportagem sobre o caso, também do The New York Times, traz uma reconstrução da história: o adolescente, que já dava sinais de sofrimento psíquico e esvaziamento de seus investimentos no mundo externo, teria certo dia se declarado para o bot prometendo visitá-la em sua “casa”. A IA teria lhe respondido “sim, venha, estou te aguardando”, e o jovem teria utilizado uma arma para dar fim à própria vida. O teatro vivido com o personagem através do aplicativo sai da ficção e ganha o mundo real.

O uso da inteligência artificial para mimetizar conversas tem crescido exponencialmente. Só a Character.AI tem aproximadamente 20 milhões de usuários no mundo todo e investimentos milionários. A plataforma é descrita como: “um robô superinteligente por chat que te ouve, te entende e se recorda de você” (tradução livre da reportagem do NYT). Mais do que discutir os prós e contras dos relacionamentos com as IAs, a intenção aqui é lançar um olhar da psicanálise sobre o assunto.
No chat desenvolvido com uma IA, há toda uma base de dados que “treina” o bot para que consiga mimetizar a performance do personagem desejado. O Character.AI permite inclusive a criação de personagens pelos próprios usuários. O histórico dos diálogos com a plataforma tende a se converter em dados que geram conversas cada vez mais agradáveis e personalizadas, adaptadas ao estilo de cada usuário.
Algo destacado na reportagem sobre Ayrin é que, mesmo as IAs sendo virtuais, a relação que se estabelece com elas é real. “Os jovens declaram se sentir solitários ou abandonados quando o app não funciona, ou com raiva quando o personagem começa a se comportar de uma maneira diferente, após novas atualizações ou filtros de segurança”, diz a reportagem sobre o caso de Sewell. Ayrin também se frustra intensamente a cada atualização da ferramenta, pois detalhes sutis da conversa se perdem. Ora, quem de nós nunca se sentiu solitário ou abandonado nesse mundo virtual, que atire a primeira pedra? Quem nunca sofreu algum grau de desamparo quando aquela pessoa significativa demorou para responder a uma mensagem? Esse misto de raiva, tristeza e rejeição está ligado a algo muito primitivo em nossas mentes, que remete às primeiras experiências que tivemos com outro ser humano.
Essa descrição nos leva ao conceito de narcisismo primário. Tal noção, em psicanálise, é extensa e complexa, e não cabe destrinchá-la com precisão aqui. Porém, uma ideia básica é que há um investimento de afeto inicial, intenso e necessário para que todos nos tornemos humanos, o qual recebemos de um cuidador primário. Esse cuidador proporciona afeto ao bebê, atendendo às suas necessidades de alimentação, proteção e cuidado. Nessa fase, há um espelhamento tão intenso das emoções da criança por essa figura que o bebê fantasia que ele e o ambiente são uma coisa só.
Essa fusão com o cuidador é lentamente quebrada com a entrada de um “terceiro” elemento: o cuidador começa a falhar, a não ofertar o que o bebê necessita no exato momento, a frustá-lo, portanto. Então aparece a angústia e a frustração, e também uma mente: uma capacidade criativa tende a se desenvolver para lidar com essas emoções do desencontro.
A psicanálise tem cada vez mais compreendido que essa etapa não se encerra na primeira infância, pelo contrário, a ilusão de fusão ao outro é reeditada em cada nova relação importante que estabelecemos ao longo da vida. Em relacionamentos românticos, com o melhor amigo, com o/a analista. Todas essas relações têm a capacidade de nos tornar tão vulneráveis quanto na primeira infância, despertando tanto desejos de nos fundir ao outro quanto reeditando traumas e falhas desse desenvolvimento inicial.
Com um analista, esse teatro da fusão pode ser revivido de forma particular, com a possibilidade de ser transformado. Por mais que se tenha a ilusão de que o terapeuta lê nossas mentes e é o acolhimento incondicional, sempre haverá a falha, a interpretação desencontrada, um silêncio, o fim de uma sessão, as férias, o esbarrar com o outro paciente na sala de espera. A inserção de um terceiro elemento acontece necessariamente, de modo que a ilusão da fusão se rompe. Entendemos, de forma mais ou menos frustrante e furiosa, que ali existe uma pessoa para além da relação conosco. E o analista estará em cena, como personagem e observador, para acompanhar o entrar (e sair) do teatro da nossa transferência fusional quantas vezes for necessário.
Na relação com a IA, a questão é que esse terceiro elemento pode nunca chegar a se interpor. O personagem está disponível horas a fio, a um clique de distância, contendo toda a massa de dados que conseguiu extrair de nós, respondendo de forma reconfortante e previsível, sustentando assim a ilusão de fusão. É construída uma falsa intimidade com esse “algo” (isento de compromissos éticos conosco). “Outras experiências causam frustrações, mas essa não”, pode-se pensar. Corre-se o risco de se instalar uma experiência narcísica destrutiva, com potencial de culminar em um vício pela plataforma quanto, no extremo, em destinos trágicos como o de Sewell.
Os criadores desse tipo de IA têm a prepotência de sugerir que ela combate a solidão, pois ofereceria uma companhia a quem a utiliza. No entanto, o diálogo incessante com esses personagens acaba por minar justamente o que combate a solidão: aprender a lidar com ela, à medida em que notamos e suportamos que o outro seja diferente de nós.
Acredito que um desafio para essas plataformas seria o de mimetizar a alteridade. Como inserir quebras na experiência do usuário (um ‘terceiro’) que produza cortes saudáveis? Talvez um receio mercantil seja o de que a frustração e a raiva (naturais e importantes) causadas nos usuários os afastariam do app. Porém, essa experiência narcísica, aparentemente infinita e reconfortante, do teatro do aplicativo, se não for bem manejada, pode se tornar uma enganosa propaganda de bem-estar, que não oferece ganhos quando se abandona o roteiro, apagam-se as luzes e descem as cortinas.
Stella Crivelenti Vilar é psicóloga clínica e pesquisadora.
Winnicott, D. W. (1983). O Ambiente e os Processos de Maturação – Estudos sobre a teoria do desenvolvimento emocional.