Inteligência artificial, colonialismo e genocídio automatizado no conflito Israel-Palestina
A automatização da letalidade contra a população Palestina em seu mais alto grau de eficiência destrutiva se traduz em uma verdadeira gestão da morte
O avanço das tecnologias digitais tem transformado profundamente a lógica dos conflitos armados contemporâneos. Entre drones kamikazes de combate aéreo (IAI Harop), sistema de defesa aérea móvel (Spyder), sistemas de vigilância em massa (Mass Surveillance Systems), o uso da inteligência artificial no campo militar tornou-se um divisor de águas nas estratégias de dominação, controle e extermínio. Trata-se não apenas da aplicação de tecnologias de ponta, mas da construção de um aparato bélico que desumaniza alvos e automatiza a letalidade com alto grau de eficiência destrutiva. Como aponta Achille Mbembe, ao refletir sobre o Necropoder, a soberania contemporânea se expressa por meio da capacidade de decidir quem deve viver e quem deve morrer. A lógica da guerra em Gaza parece incorporar esse princípio de forma brutal, com o uso intensivo de tecnologias digitais que automatizam a eliminação de vidas consideradas descartáveis.
Um dos casos mais emblemáticos dessa militarização algorítmica é o uso intensivo da inteligência artificial por parte de Israel nos ataques contra a população palestina, especialmente na Faixa de Gaza. Três sistemas de I.A. utilizados pelas Forças de Defesa de Israel (IDF) ganharam destaque nos últimos meses: “Lavender”, “Gospel” e “Where’s Daddy?”.
O sistema “Lavender” foi projetado para automatizar o processo de identificação de supostos militantes da Jihad Islâmica e principalmente do Hamas. O sistema cruza informações de metadados de chamadas telefônicas, padrões de comportamento digital e redes sociais, classificando milhares de pessoas como alvos prioritários com base em probabilidades estatísticas. Os algoritmos são utilizados para definir os indivíduos considerados suspeitos. Estima-se que aproximadamente 37 mil indivíduos foram incluídos em sua base de alvos com base nesses critérios, muitas vezes sem verificação humana significativa. Com o uso desse sistema, centenas de ataques foram autorizados automaticamente, aumentando o número de civis atingidos.
O sistema “Gospel” opera como um motor analítico para identificar infraestruturas militares ocultas. A IA cruza dados geoespaciais, imagens de satélite e informações de inteligência para mapear locais de lançamento de foguetes e depósitos subterrâneos de armamento. Sua implementação possibilitou identificar e selecionar alvos em Gaza através de ataques rápidos e em grande escala. Contudo, muitos dos locais atingidos se localizavam em zonas densamente povoadas, o que resultou na destruição de bairros inteiros e centenas de vítimas civis.
Já o sistema “Where’s Daddy?” tem como foco rastrear alvos masculinos considerados combatentes. O sistema monitora padrões de deslocamento e permanência domiciliar para identificar momentos propícios a ataques — geralmente quando os indivíduos estão em casa com suas famílias. Essa abordagem eleva intencionalmente o número de vítimas colaterais, atingindo mulheres e crianças junto aos alvos principais. A automatização desse processo reforça a percepção de que a eliminação familiar coletiva não é um erro, mas parte integrante da estratégia bélica.

A militarização da IA se revela, assim, não apenas como um avanço técnico, mas como um dispositivo político de gestão da morte. Ao automatizar a identificação de alvos e autorizar ataques com base em dados probabilísticos, Israel comporta-se como um Necro-Racista-Estado — conceito desenvolvido por Wallace dos Santos de Moraes para descrever os regimes que racializam a morte como política de Estado — e desloca a responsabilidade moral e jurídica da violência para sistemas computacionais, ocultando o caráter deliberado das ações sob o manto da neutralidade tecnológica. No entanto, os dados empíricos são incontestáveis: a maioria das vítimas fatais nos ataques israelenses em Gaza são mulheres e crianças. Essa desproporcionalidade não pode ser compreendida como mero efeito colateral da guerra. Quando associada ao uso sistemático de IA em zonas densamente povoadas, essa realidade permite inferir que se trata de uma política deliberada de eliminação de corpos considerados descartáveis.
Nesse sentido, a inteligência artificial torna-se coautora de um modelo de política que despersonaliza o inimigo, dilui a responsabilidade e expande a letalidade sob a justificativa da segurança nacional. A racionalidade algorítmica, longe de representar uma forma precisa de combate, está sendo utilizada para justificar práticas que violam flagrantemente o Direito Internacional. O uso da IA em Gaza deve ser compreendido como um sintoma da reconfiguração das formas contemporâneas de dominação, onde a tecnologia se torna uma extensão da lógica colonial e genocida.
A prevalência de mulheres e crianças entre os mortos, em paralelo ao uso de ferramentas automatizadas de categorização e eliminação, desafia qualquer interpretação que veja esses números como mera contingência. A assimetria brutal entre os meios empregados por Israel e a ausência de proteção efetiva da população civil palestina compõem o retrato de um processo em que a tecnologia reforça desigualdades históricas. É nesse contexto que a IA se torna arma de dominação, e a sua crítica deve ser inseparável da crítica ao apartheid, ao colonialismo e a impunidade internacional que sustentam a ocupação israelense.
Portanto, não estamos diante de erros técnicos ou efeitos colaterais de uma guerra justa, mas da consolidação de uma doutrina de destruição sustentada por tecnologias de última geração. Essa nova gramática da guerra exige uma denúncia contundente e o fortalecimento de mecanismos internacionais de responsabilização, que reconheçam que o massacre em Gaza, promovido com apoio algorítmico, não é acidental: é parte de uma política sistemática de exclusão, controle e extermínio, ou em uma palavra: genocídio.
Juan Filipe Loureiro Magalhães é professor, historiador e internacionalista. Doutor em História pela Universidade Federal do Rio de Janeiro (UFRJ).
Referências
ACHILLE, Mbembe. Necropolítica. São Paulo: n-1 edições, 2018.
FRANÇA, Isadora Gonçalves; MAGALHÃES, Juan. “O colonialismo, dicotomia e subalternização: a escalada dos conflitos no Oriente Médio contemporâneo e a construção política do palestino como outro no campo internacional”. Revista Estudos Libertários, v. 7, n. 18, 2025. Disponível em:
https://revistas.ufrj.br/index.php/estudoslibertarios/article/view/66475
MAGALHÃES, Juan Filipe Loureiro. “O Dilúvio de Al Aqsa e a assimetria bélica na Faixa de Gaza.” Le Monde Diplomatique Brasil, 8 de agosto de 2024. Disponível em: https://diplomatique.org.br/o-diluvio-de-al-aqsa-e-a-assimetria-belica-na-faixa-de-gaza/
MORAES, Wallace dos Santos de. “As origens do necro-racista-Estado no Brasil – crítica desde uma perspectiva decolonial & libertária”. Disponível em: https://revistas.ufrj.br/index.php/pphp/article/view/52512
WALLERSTEIN, Immanuel. The Modern World-System. New York: Academic Press, 1974.
+972 MAGAZINE. “Lavender: the AI machine directing Israel’s bombing spree in Gaza.”Disponível em: https://www.972mag.com/lavender-ai-israel-gaza/
THE GUARDIAN. “Israel used AI to identify 37,000 potential bombing targets in Gaza.” Disponível em: https://www.theguardian.com/world/2024/apr/03/israel-ai-bombing-gaza-lavender
AL JAZEERA. “Israeli military’s ‘Where’s Daddy?’ AI system raises alarm over civilian deaths in Gaza.” Disponível em: https://www.aljazeera.com/news/2024/4/5/israeli-wheres-daddy-ai-gaza