top of page
  • Foto do escritorTime GRUPO XPER GLOBAL

Israel usou IA para identificar 37.000 alvos do Hamas

Fontes de inteligência israelenses revelam o uso do sistema 'Lavender' na guerra de Gaza e afirmam que foi dada permissão para matar civis na perseguição de militantes de baixa patente.


Palestinos procuram pessoas desaparecidas e vítimas sob os escombros de uma casa destruída após um ataque aéreo israelense no campo de refugiados de al-Maghazi, no sul de Gaza. Fotografia: Mohammed Saber/EPA


A campanha de bombardeios militares israelenses em Gaza usou um banco de dados alimentado por IA, não divulgado anteriormente, que em determinado momento identificou 37.000 alvos em potencial com base em suas ligações aparentes com o Hamas, de acordo com fontes de inteligência envolvidas na guerra.

Além de falar sobre o uso do sistema de IA, chamado Lavender, as fontes de inteligência afirmam que oficiais militares israelenses permitiram que um grande número de civis palestinos fossem mortos, principalmente durante as primeiras semanas e meses do conflito .

O depoimento extraordinariamente sincero deles oferece um raro vislumbre das experiências em primeira mão de oficiais de inteligência israelenses que têm usado sistemas de aprendizado de máquina para ajudar a identificar alvos durante a guerra de seis meses.

O uso de poderosos sistemas de IA por Israel em sua guerra contra o Hamas entrou em território desconhecido para a guerra avançada, levantando uma série de questões legais e morais e transformando o relacionamento entre militares e máquinas.


“Isso é incomparável, na minha memória”, disse um oficial de inteligência que usou Lavender, acrescentando que eles tinham mais fé em um “mecanismo estatístico” do que em um soldado em luto. “Todos lá, inclusive eu, perderam pessoas em 7 de outubro. A máquina fez isso friamente. E isso tornou tudo mais fácil.”

Outro usuário do Lavender questionou se o papel dos humanos no processo de seleção era significativo. “Eu investiria 20 segundos para cada alvo neste estágio e faria dezenas deles todos os dias. Eu não tinha nenhum valor agregado como humano, além de ser um selo de aprovação. Isso economizava muito tempo.”


O depoimento dos seis oficiais de inteligência, todos envolvidos no uso de sistemas de IA para identificar alvos do Hamas e da Jihad Islâmica Palestina (PIJ) na guerra, foi dado ao jornalista Yuval Abraham para uma reportagem publicada pela publicação israelense-palestina +972 Magazine e pelo veículo de comunicação em hebraico Local Call .

Seus relatos foram compartilhados exclusivamente com o Guardian antes da publicação. Todos os seis disseram que Lavender desempenhou um papel central na guerra, processando massas de dados para identificar rapidamente potenciais agentes “juniores” para alvejar. Quatro das fontes disseram que, em um estágio inicial da guerra, Lavender listou até 37.000 homens palestinos que foram vinculados pelo sistema de IA ao Hamas ou à PIJ.


O Lavender foi desenvolvido pela divisão de inteligência de elite das Forças de Defesa de Israel, Unidade 8200, que é comparável à Agência de Segurança Nacional dos EUA ou GCHQ no Reino Unido.

Várias fontes descreveram como, para certas categorias de alvos, as IDF aplicaram permissões pré-autorizadas para o número estimado de civis que poderiam ser mortos antes que um ataque fosse autorizado.

Duas fontes disseram que durante as primeiras semanas da guerra eles foram autorizados a matar 15 ou 20 civis durante ataques aéreos contra militantes de baixa patente. Ataques a tais alvos eram tipicamente realizados usando munições não guiadas conhecidas como “bombas burras”, disseram as fontes, destruindo casas inteiras e matando todos os seus ocupantes.


“Você não quer desperdiçar bombas caras com pessoas sem importância – é muito caro para o país e há escassez [dessas bombas]”, disse um oficial de inteligência. Outro disse que a principal questão que eles enfrentavam era se os “danos colaterais” aos civis permitiam um ataque.


“Porque normalmente fazíamos os ataques com bombas idiotas, e isso significava literalmente jogar a casa inteira sobre seus ocupantes. Mas mesmo que um ataque seja evitado, você não se importa – você imediatamente passa para o próximo alvo. Por causa do sistema, os alvos nunca acabam. Você tem outros 36.000 esperando.”

De acordo com especialistas em conflitos, se Israel tem usado bombas idiotas para destruir as casas de milhares de palestinos que foram ligados, com a ajuda da IA, a grupos militantes em Gaza , isso pode ajudar a explicar o número assustadoramente alto de mortos na guerra.

O ministério da saúde no território administrado pelo Hamas diz que 33.000 palestinos foram mortos no conflito nos últimos seis meses. Dados da ONU mostram que somente no primeiro mês da guerra, 1.340 famílias sofreram perdas múltiplas, com 312 famílias perdendo mais de 10 membros.


“Você não quer desperdiçar bombas caras com pessoas sem importância – é muito caro para o país e há escassez [dessas bombas]”, disse um oficial de inteligência. Outro disse que a principal questão que eles enfrentavam era se os “danos colaterais” aos civis permitiam um ataque.

“Porque normalmente fazíamos os ataques com bombas idiotas, e isso significava literalmente jogar a casa inteira sobre seus ocupantes. Mas mesmo que um ataque seja evitado, você não se importa – você imediatamente passa para o próximo alvo. Por causa do sistema, os alvos nunca acabam. Você tem outros 36.000 esperando.”

De acordo com especialistas em conflitos, se Israel tem usado bombas idiotas para destruir as casas de milhares de palestinos que foram ligados, com a ajuda da IA, a grupos militantes em Gaza , isso pode ajudar a explicar o número assustadoramente alto de mortos na guerra.

O ministério da saúde no território administrado pelo Hamas diz que 33.000 palestinos foram mortos no conflito nos últimos seis meses. Dados da ONU mostram que somente no primeiro mês da guerra, 1.340 famílias sofreram perdas múltiplas, com 312 famílias perdendo mais de 10 membros.


Lavender criou um banco de dados de dezenas de milhares de indivíduos que foram marcados como membros predominantemente de baixa patente da ala militar do Hamas, eles acrescentaram. Isso foi usado junto com outro sistema de suporte à decisão baseado em IA, chamado Gospel , que recomendava prédios e estruturas como alvos em vez de indivíduos.


Os relatos incluem testemunhos em primeira mão de como os agentes de inteligência trabalharam com Lavender e como o alcance de sua rede de arrasto poderia ser ajustado. “No seu pico, o sistema conseguiu gerar 37.000 pessoas como potenciais alvos humanos”, disse uma das fontes. “Mas os números mudavam o tempo todo, porque depende de onde você define o padrão do que é um agente do Hamas.”


Eles acrescentaram: “Houve momentos em que um agente do Hamas foi definido de forma mais ampla, e então a máquina começou a nos trazer todos os tipos de pessoal de defesa civil, policiais, com quem seria uma vergonha desperdiçar bombas. Eles ajudam o governo do Hamas, mas não colocam realmente os soldados em perigo.”

Antes da guerra, os EUA e Israel estimavam que a ala militar do Hamas tinha entre 25 e 30 mil membros.


Nas semanas seguintes ao ataque liderado pelo Hamas em 7 de outubro ao sul de Israel, no qual militantes palestinos mataram quase 1.200 israelenses e sequestraram cerca de 240 pessoas, as fontes disseram que houve uma decisão de tratar homens palestinos ligados ao braço militar do Hamas como alvos em potencial, independentemente de sua patente ou importância.

Os processos de seleção de alvos da IDF na fase mais intensiva do bombardeio também foram relaxados, eles disseram. “Havia uma política completamente permissiva em relação às baixas das operações [de bombardeio]”, disse uma fonte. “Uma política tão permissiva que, na minha opinião, tinha um elemento de vingança.”

Outra fonte, que justificou o uso de Lavender para ajudar a identificar alvos de baixa patente, disse que "quando se trata de um militante júnior, você não quer investir mão de obra e tempo nisso". Eles disseram que em tempos de guerra não havia tempo suficiente para cuidadosamente "incriminar cada alvo".

“Então você está disposto a assumir a margem de erro de usar inteligência artificial, arriscando danos colaterais e morte de civis, e arriscando atacar por engano, e conviver com isso”, acrescentaram.


'É muito mais fácil bombardear a casa de uma família'

Os depoimentos publicados pelo +972 e Local Call podem explicar como um exército ocidental, com capacidades tão avançadas, com armas capazes de realizar ataques altamente cirúrgicos, conduziu uma guerra com um número tão grande de vítimas humanas.

Quando se tratava de mirar em suspeitos de baixa patente do Hamas e da PIJ, eles disseram que a preferência era atacar quando se acreditava que eles estavam em casa. “Não estávamos interessados ​​em matar agentes [do Hamas] apenas quando eles estivessem em um prédio militar ou envolvidos em uma atividade militar”, disse um deles. “É muito mais fácil bombardear a casa de uma família. O sistema é construído para procurá-los nessas situações.”


Tal estratégia arriscava números maiores de baixas civis, e as fontes disseram que a IDF impôs limites pré-autorizados sobre o número de civis que considerou aceitável matar em um ataque direcionado a um único militante do Hamas. Dizia-se que a proporção havia mudado ao longo do tempo e variava de acordo com a antiguidade do alvo.

De acordo com +972 e Local Call, a IDF julgou permissível matar mais de 100 civis em ataques a oficiais de alto escalão do Hamas. “Tínhamos um cálculo de quantos [civis poderiam ser mortos] para o comandante da brigada, quantos [civis] para um comandante de batalhão, e assim por diante”, disse uma fonte.

“Havia regulamentações, mas elas eram muito lenientes”, outro acrescentou. “Matamos pessoas com danos colaterais na casa dos dois dígitos altos, se não dos três dígitos baixos. Essas são coisas que nunca aconteceram antes.” Parece ter havido flutuações significativas no número que os comandantes militares tolerariam em diferentes estágios da guerra.

Uma fonte disse que o limite de baixas civis permitidas “subiu e desceu” ao longo do tempo, e em um ponto chegou a ser tão baixo quanto cinco. Durante a primeira semana do conflito, a fonte disse que foi dada permissão para matar 15 não combatentes para eliminar militantes juniores em Gaza. No entanto, eles disseram que as estimativas de baixas civis eram imprecisas, pois não era possível saber definitivamente quantas pessoas estavam em um prédio.

Outro oficial de inteligência disse que, mais recentemente no conflito, a taxa de danos colaterais permitidos foi reduzida novamente. Mas em um estágio anterior da guerra, eles foram autorizados a matar até “20 civis não envolvidos” para um único agente, independentemente de sua patente, importância militar ou idade.

“Não é só que você pode matar qualquer pessoa que seja um soldado do Hamas, o que é claramente permitido e legítimo em termos de lei internacional”, eles disseram. “Mas eles dizem diretamente a você: 'Você tem permissão para matá-los junto com muitos civis.' … Na prática, o critério de proporcionalidade não existia.”


A declaração da IDF disse que seus procedimentos “exigem a realização de uma avaliação individual da vantagem militar antecipada e dos danos colaterais esperados... A IDF não realiza ataques quando os danos colaterais esperados do ataque são excessivos em relação à vantagem militar.” E acrescentou: “A IDF rejeita completamente a alegação sobre qualquer política de matar dezenas de milhares de pessoas em suas casas.”

Especialistas em direito humanitário internacional que falaram com o Guardian expressaram alarme com relatos de que as IDF aceitaram e pré-autorizaram taxas de danos colaterais de até 20 civis, particularmente para militantes de patente mais baixa. Eles disseram que os militares devem avaliar a proporcionalidade para cada ataque individual.


Um especialista em direito internacional do Departamento de Estado dos EUA disse que eles “nunca ouviram falar remotamente de uma proporção de um para 15 ser considerada aceitável, especialmente para combatentes de nível mais baixo. Há muita margem de manobra, mas isso me parece extremo”.

Sarah Harrison, ex-advogada do Departamento de Defesa dos EUA, agora analista do Crisis Group, disse: “Embora possa haver certas ocasiões em que 15 mortes colaterais de civis possam ser proporcionais, há outras vezes em que definitivamente não seriam. Você não pode simplesmente definir um número tolerável para uma categoria de alvos e dizer que será legalmente proporcional em cada caso.”

Seja qual for a justificativa legal ou moral para a estratégia de bombardeio de Israel, alguns de seus oficiais de inteligência parecem agora estar questionando a abordagem definida por seus comandantes. “Ninguém pensou sobre o que fazer depois, quando a guerra acabasse, ou como seria possível viver em Gaza”, disse um deles.

Outro disse que após os ataques de 7 de outubro pelo Hamas, a atmosfera no IDF era “dolorosa e vingativa”. “Havia uma dissonância: por um lado, as pessoas aqui estavam frustradas por não estarmos atacando o suficiente. Por outro lado, você vê no final do dia que outros mil habitantes de Gaza morreram, a maioria deles civis.”

Guardian Newsroom: A crise em desenvolvimento no Oriente MédioNa terça-feira, 30 de abril, das 19h às 20h15 GMT, junte-se a Devika Bhat, Peter Beaumont, Emma Graham-Harrison e Ghaith Abdul-Ahad enquanto eles discutem a crise em rápido desenvolvimento no Oriente Médio. Reserve ingressos aqui ou em theguardian.live



0 visualização0 comentário

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page