« Lavender » : La machine d'Intelligence Artificielle qui dirige les bombardements israéliens à Gaza

L’armée israélienne a désigné des dizaines de milliers d’habitants de Gaza comme suspects d’assassinat, en utilisant un système de ciblage par IA avec peu de surveillance humaine et une politique permissive en matière de pertes humaines, révèlent +972 et Local Call.

https://www.972mag.com/lavender-ai-israeli-army-gaza/

Par Yuval Abraham

Le 3 avril 2024

Des Palestiniens transportent les blessés et tentent d’éteindre un incendie après une frappe aérienne israélienne sur une maison dans le camp de réfugiés de Shaboura dans la ville de Rafah, au sud de la bande de Gaza, le 17 novembre 2023. (Abed Rahim Khatib/Flash90)

En 2021, un livre intitulé “The Human-Machine Team : How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World” a été publié en anglais sous le pseudonyme de “Brigadier General Y.S.” Dans cet ouvrage, l’auteur – un homme dont nous avons confirmé qu’il est l’actuel commandant de l’unité d’élite du renseignement israélien 8200 – plaide en faveur de la conception d’une machine spéciale capable de traiter rapidement des quantités massives de données afin de générer des milliers de “cibles” potentielles pour des frappes militaires dans le feu de l’action. Cette technologie, écrit-il, résoudrait ce qu’il décrit comme un “goulot d’étranglement humain, tant pour la localisation des nouvelles cibles que pour la prise de décision concernant l’approbation des cibles”.

Il s’avère qu’une telle machine existe réellement. Une nouvelle enquête menée par +972 Magazine et Local Call révèle que l’armée israélienne a mis au point un programme basé sur l’intelligence artificielle, connu sous le nom de “Lavender”, dévoilé ici pour la première fois. Selon six officiers de renseignement israéliens, qui ont tous servi dans l’armée pendant la guerre actuelle contre la bande de Gaza et ont été directement impliqués dans l’utilisation de l’intelligence artificielle pour générer des cibles à assassiner, Lavender a joué un rôle central dans le bombardement sans précédent des Palestiniens, en particulier pendant les premières phases de la guerre. En fait, selon les sources, son influence sur les opérations militaires était telle qu’elles traitaient les résultats de la machine d’IA “comme s’il s’agissait d’une décision humaine”.

Officiellement, le système Lavender est conçu pour marquer tous les agents présumés des ailes militaires du Hamas et du Jihad islamique palestinien (PIJ), y compris les moins gradés, comme des cibles potentielles pour les bombardements. Les sources ont déclaré à +972 et à Local Call que, pendant les premières semaines de la guerre, l’armée s’est presque entièrement appuyée sur Lavender, qui a marqué jusqu’à 37 000 Palestiniens comme militants présumés – et leurs maisons – en vue d’éventuelles frappes aériennes.

Au début de la guerre, l’armée a largement autorisé les officiers à adopter les listes d’objectifs de Lavender, sans exiger de vérification approfondie des raisons pour lesquelles la machine avait fait ces choix, ni d’examen des données brutes de renseignement sur lesquelles elles étaient basées. Une source a déclaré que le personnel humain ne faisait souvent qu’entériner les décisions de la machine, ajoutant que, normalement, il ne consacrait personnellement qu’environ “20 secondes” à chaque cible avant d’autoriser un bombardement – juste pour s’assurer que la cible marquée par Lavender est bien un homme. Et ce, tout en sachant que le système commet ce que l’on considère comme des “erreurs” dans environ 10 % des cas, et qu’il est connu pour marquer occasionnellement des individus qui n’ont qu’un lien ténu avec des groupes militants, voire aucun lien du tout.

En outre, l’armée israélienne a systématiquement attaqué les personnes ciblées alors qu’elles se trouvaient chez elles – généralement la nuit, en présence de toute leur famille – plutôt qu’au cours d’une activité militaire. Selon les sources, cela s’explique par le fait que, du point de vue du renseignement, il est plus facile de localiser les individus dans leurs maisons privées. D’autres systèmes automatisés, dont celui appelé “Where’s Daddy ?”, également révélé ici pour la première fois, ont été utilisés spécifiquement pour suivre les individus ciblés et commettre des attentats à la bombe lorsqu’ils étaient entrés dans les résidences de leur famille.

Le résultat, comme en témoignent les sources, est que des milliers de Palestiniens – pour la plupart des femmes et des enfants ou des personnes qui n’étaient pas impliquées dans les combats – ont été anéantis par les frappes aériennes israéliennes, en particulier au cours des premières semaines de la guerre, en raison des décisions du programme d’intelligence artificielle.

“Nous ne voulions pas tuer les agents [du Hamas] uniquement lorsqu’ils se trouvaient dans un bâtiment militaire ou qu’ils participaient à une activité militaire”, a déclaré A., un officier de renseignement, à +972 et à Local Call. “Au contraire, les FDI les ont bombardés dans leurs maisons sans hésitation, comme première option. Il est beaucoup plus facile de bombarder la maison d’une famille. Le système est conçu pour les rechercher dans ces situations”.

La machine Lavender rejoint un autre système d’IA, “The Gospel”, au sujet duquel des informations ont été révélées lors d’une précédente enquête menée par +972 et Local Call en novembre 2023, ainsi que dans les propres publications de l’armée israélienne. Une différence fondamentale entre les deux systèmes réside dans la définition de la cible : alors que The Gospel marque les bâtiments et les structures à partir desquels, selon l’armée, les militants opèrent, Lavender marque les personnes – et les inscrit sur une liste de personnes à abattre.

En outre, selon les sources, lorsqu’il s’agissait de cibler des militants juniors présumés marqués par Lavender, l’armée préférait n’utiliser que des missiles non guidés, communément appelés bombes “muettes” (par opposition aux bombes de précision “intelligentes”), qui peuvent détruire des bâtiments entiers sur leurs occupants et causer d’importantes pertes humaines. “Vous ne voulez pas gaspiller des bombes coûteuses sur des personnes sans importance – cela coûte très cher au pays et il y a une pénurie [de ces bombes]”, a déclaré C., l’un des officiers de renseignement. Une autre source a déclaré qu’ils avaient personnellement autorisé le bombardement de “centaines” de domiciles privés d’agents subalternes présumés marqués par Lavender, nombre de ces attaques tuant des civils et des familles entières en tant que “dommages collatéraux”.

Selon deux des sources, l’armée a également décidé, au cours des premières semaines de la guerre, que pour chaque agent subalterne du Hamas marqué par Lavender, il était permis de tuer jusqu’à 15 ou 20 civils ; par le passé, l’armée n’autorisait aucun “dommage collatéral” lors de l’assassinat de militants de bas rang. Les sources ont ajouté que, dans le cas où la cible était un haut responsable du Hamas ayant le rang de commandant de bataillon ou de brigade, l’armée a autorisé à plusieurs reprises le meurtre de plus de 100 civils lors de l’assassinat d’un seul commandant.

L’enquête qui suit est organisée selon les six étapes chronologiques de la production hautement automatisée de cibles par l’armée israélienne au cours des premières semaines de la guerre de Gaza. Tout d’abord, nous expliquons la machine Lavender elle-même, qui a marqué des dizaines de milliers de Palestiniens à l’aide de l’IA. Ensuite, nous révélons le système “Where’s Daddy ?” (Où est papa ?), qui a suivi ces cibles et signalé à l’armée qu’elles entraient dans leurs maisons familiales. Troisièmement, nous décrivons comment les bombes “muettes” ont été choisies pour frapper ces maisons.

Quatrièmement, nous expliquons comment l’armée a assoupli le nombre de civils pouvant être tués lors du bombardement d’une cible. Cinquièmement, nous expliquons comment un logiciel automatisé a calculé de manière inexacte le nombre de non-combattants dans chaque foyer. Sixièmement, nous montrons qu’à plusieurs reprises, lorsqu’une maison a été frappée, généralement la nuit, la cible individuelle n’était parfois pas du tout à l’intérieur, parce que les officiers militaires n’ont pas vérifié l’information en temps réel.

ÉTAPE 1 : GÉNÉRER DES CIBLES

Une fois que l’on passe à l’automatisme, la génération de cibles s’emballe

Dans l’armée israélienne, le terme “cible humaine” désignait autrefois un haut responsable militaire qui, selon les règles du département du droit international de l’armée, pouvait être tué à son domicile privé, même s’il y avait des civils autour de lui. Des sources de renseignement ont déclaré à +972 et à Local Call qu’au cours des précédentes guerres d’Israël, étant donné qu’il s’agissait d’une manière “particulièrement brutale” de tuer quelqu’un – souvent en tuant toute une famille aux côtés de la cible – ces cibles humaines étaient marquées très soigneusement et seuls les commandants militaires de haut rang étaient bombardés à leur domicile, afin de maintenir le principe de proportionnalité en vertu du droit international.

Mais après le 7 octobre, lorsque les militants du Hamas ont lancé un assaut meurtrier contre les communautés du sud d’Israël, tuant environ 1 200 personnes et en enlevant 240, l’armée a adopté une approche radicalement différente, selon les sources. Dans le cadre de l’opération “Iron Swords”, l’armée a décidé de désigner tous les agents de la branche militaire du Hamas comme des cibles humaines, quel que soit leur rang ou leur importance militaire. Cela a tout changé.

Cette nouvelle politique a également posé un problème technique aux services de renseignement israéliens. Lors des guerres précédentes, pour autoriser l’assassinat d’une seule cible humaine, un officier devait passer par un processus d'”incrimination” long et complexe : vérifier par recoupement les preuves que la personne était bien un membre haut placé de l’aile militaire du Hamas, découvrir où elle vivait, ses coordonnées et enfin savoir quand elle était chez elle en temps réel. Lorsque la liste des cibles ne comptait que quelques dizaines d’agents de haut rang, les services de renseignement pouvaient s’occuper individuellement du travail d’incrimination et de localisation.

Cependant, une fois que la liste a été élargie pour inclure des dizaines de milliers d’agents de rang inférieur, l’armée israélienne a compris qu’elle devait s’appuyer sur des logiciels automatisés et sur l’intelligence artificielle. Les sources témoignent que le rôle du personnel humain dans l’incrimination des Palestiniens en tant qu’agents militaires a été mis de côté et que l’IA a fait la majeure partie du travail à sa place. Selon quatre des sources qui ont parlé à +972 et à Local Call, Lavender – qui a été développé pour créer des cibles humaines dans la guerre actuelle – a marqué quelque 37 000 Palestiniens comme étant des “militants du Hamas” présumés, la plupart d’entre eux étant des jeunes, pour les assassiner (le porte-parole des FDI a nié l’existence d’une telle liste dans une déclaration à +972 et à Local Call).

“Nous ne savions pas qui étaient les agents subalternes, parce qu’Israël ne les suivait pas régulièrement [avant la guerre]”, a expliqué l’officier supérieur B. à +972 et à Local Call, expliquant ainsi la raison pour laquelle cette machine à cibler a été mise au point pour la guerre en cours. “Ils voulaient nous permettre d’attaquer automatiquement [les agents subalternes]. C’est le Saint Graal. Une fois que l’on passe à l’automatisme, la génération de cibles devient folle”.

Les sources ont déclaré que l’autorisation d’adopter automatiquement les listes de personnes à abattre de Lavender, qui n’étaient auparavant utilisées que comme outil auxiliaire, a été accordée environ deux semaines après le début de la guerre, après que le personnel des services de renseignement a vérifié “manuellement” l’exactitude d’un échantillon aléatoire de plusieurs centaines de cibles sélectionnées par le système d’intelligence artificielle. Lorsque cet échantillon a révélé que les résultats de Lavender avaient atteint une précision de 90 % dans l’identification de l’affiliation d’un individu au Hamas, l’armée a autorisé l’utilisation généralisée du système. À partir de ce moment-là, les sources ont déclaré que si Lavender décidait qu’un individu était un militant du Hamas, il leur était essentiellement demandé de traiter cela comme un ordre, sans qu’il soit nécessaire de vérifier de manière indépendante pourquoi la machine avait fait ce choix ou d’examiner les données brutes de renseignement sur lesquelles elle est basée.

“À 5 heures du matin, [l’armée de l’air] arrivait et bombardait toutes les maisons que nous avions marquées”, raconte B.. “Nous avons éliminé des milliers de personnes. Nous ne les avons pas examinées une par une – nous avons tout mis dans des systèmes automatisés, et dès qu’un [des individus marqués] était chez lui, il devenait immédiatement une cible. Nous l’avons bombardé, lui et sa maison.

“J’ai été très surpris que l’on nous demande de bombarder une maison pour tuer un soldat au sol, dont l’importance dans les combats était si faible”, a déclaré une source au sujet de l’utilisation de l’IA pour marquer des militants présumés de rang inférieur. J’ai surnommé ces cibles “cibles poubelles”. Néanmoins, je les trouvais plus éthiques que les cibles que nous bombardions uniquement à des fins de “dissuasion ” – des gratte-ciel évacués et renversés dans le seul but de provoquer des destructions”.

Les résultats meurtriers de ce relâchement des restrictions au début de la guerre ont été stupéfiants. Selon les données du ministère palestinien de la santé à Gaza, sur lesquelles l’armée israélienne s’appuie presque exclusivement depuis le début de la guerre, Israël a tué quelque 15 000 Palestiniens – soit près de la moitié du nombre de morts jusqu’à présent – au cours des six premières semaines de la guerre, jusqu’à ce qu’un cessez-le-feu d’une semaine soit conclu le 24 novembre.

Plus il y a d’informations et de variété, mieux c’est

Le logiciel Lavender analyse les informations recueillies sur la plupart des 2,3 millions d’habitants de la bande de Gaza grâce à un système de surveillance de masse, puis évalue et classe la probabilité que chaque personne soit active dans l’aile militaire du Hamas ou du PIJ. Selon certaines sources, la machine attribue à presque chaque habitant de Gaza une note de 1 à 100, exprimant la probabilité qu’il s’agisse d’un militant.

Lavender apprend à identifier les caractéristiques des agents connus du Hamas et du PIJ, dont les informations ont été transmises à la machine en tant que données d’entraînement, puis à repérer ces mêmes caractéristiques – également appelées “traits” – au sein de la population générale, ont expliqué les sources. Une personne présentant plusieurs caractéristiques incriminantes différentes obtiendra une note élevée et deviendra donc automatiquement une cible potentielle pour un assassinat.

Dans “The Human-Machine Team”, le livre cité au début de cet article, le commandant actuel de l’unité 8200 plaide en faveur d’un tel système sans citer le nom de Lavender. (Le commandant lui-même n’est pas nommé, mais cinq sources au sein de l’unité 8200 ont confirmé que le commandant était l’auteur, comme l’a également rapporté Haaretz). Décrivant le personnel humain comme un “goulot d’étranglement” qui limite la capacité de l’armée au cours d’une opération militaire, le commandant se lamente : “Nous [les humains] ne pouvons pas traiter autant d’informations. Peu importe le nombre de personnes chargées de produire des objectifs pendant la guerre, il est toujours impossible de produire suffisamment d’objectifs par jour”.

Selon lui, la solution à ce problème réside dans l’intelligence artificielle. Le livre propose un petit guide pour construire une “machine à cibles”, similaire à Lavender, basée sur l’intelligence artificielle et des algorithmes d’apprentissage automatique. Ce guide contient plusieurs exemples de “centaines et de milliers” de caractéristiques susceptibles d’augmenter la cote d’un individu, comme le fait de faire partie d’un groupe Whatsapp avec un militant connu, de changer de téléphone portable tous les quelques mois et de changer fréquemment d’adresse.

“Plus il y a d’informations, et plus elles sont variées, mieux c’est”, écrit le commandant. “Informations visuelles, informations cellulaires, connexions aux médias sociaux, informations sur le champ de bataille, contacts téléphoniques, photos. Si les humains sélectionnent d’abord ces caractéristiques, poursuit le commandant, au fil du temps, la machine en viendra à les identifier d’elle-même. Selon lui, cela peut permettre aux armées de créer “des dizaines de milliers de cibles”, la décision de les attaquer ou non restant du ressort de l’homme.

Ce livre n’est pas la seule fois où un haut commandant israélien a fait allusion à l’existence de machines à cibles humaines comme Lavender. +972 et Local Call ont obtenu des images d’une conférence privée donnée par le commandant du centre secret de science des données et d’IA de l’unité 8200, le “colonel Yoav”, lors de la semaine de l’IA de l’université de Tel-Aviv en 2023, dont les médias israéliens ont parlé à l’époque.

Dans cette conférence, le commandant parle d’une nouvelle machine cible sophistiquée utilisée par l’armée israélienne, qui détecte les “personnes dangereuses” en se basant sur leur ressemblance avec les listes existantes de militants connus sur lesquelles elle a été entraînée. “Grâce à ce système, nous avons réussi à identifier les commandants des escadrons de missiles du Hamas”, a déclaré le colonel Yoav lors de la conférence, en référence à l’opération militaire israélienne de mai 2021 à Gaza, au cours de laquelle la machine a été utilisée pour la première fois.

Les diapositives de la présentation, également obtenues par +972 et Local Call, contiennent des illustrations du fonctionnement de la machine : elle est alimentée en données sur les agents du Hamas existants, elle apprend à remarquer leurs caractéristiques, puis elle évalue d’autres Palestiniens en fonction de leur degré de similitude avec les militants.

“Nous classons les résultats et déterminons le seuil [à partir duquel il convient d’attaquer une cible]”, a déclaré le colonel Yoav lors de la conférence, soulignant qu'”en fin de compte, ce sont des personnes en chair et en os qui prennent les décisions”. Dans le domaine de la défense, d’un point de vue éthique, nous insistons beaucoup sur ce point. Ces outils sont destinés à aider [les officiers de renseignement] à franchir leurs barrières”.

Dans la pratique, cependant, les sources qui ont utilisé Lavender au cours des derniers mois affirment que l’action humaine et la précision ont été remplacées par la création de cibles de masse et la létalité.

Il n’y avait pas de politique “zéro erreur”.

B., un officier supérieur qui a utilisé Lavender, a expliqué à +972 et à Local Call que dans la guerre actuelle, les officiers n’étaient pas tenus d’examiner de manière indépendante les évaluations du système d’IA, afin de gagner du temps et de permettre la production en masse de cibles humaines sans entraves.

“Tout était statistique, tout était ordonné – c’était très sec”, a déclaré B.. En d’autres termes, on savait à l’avance que 10 % des cibles humaines destinées à être assassinées n’étaient pas du tout des membres de l’aile militaire du Hamas.

Par exemple, des sources ont expliqué que la machine Lavender signalait parfois par erreur des individus dont les modes de communication étaient similaires à ceux d’agents connus du Hamas ou du PIJ, notamment des policiers et des membres de la défense civile, des parents de militants, des habitants dont le nom et le surnom étaient identiques à ceux d’un agent, et des habitants de Gaza qui utilisaient un appareil ayant appartenu à un agent du Hamas.

“À quel point une personne doit-elle être proche du Hamas pour être [considérée par une machine d’IA comme] affiliée à l’organisation ?”, a déclaré une source critiquant l’inexactitude de Lavender. “Il s’agit d’une limite vague. Une personne qui ne reçoit pas de salaire du Hamas, mais qui l’aide pour toutes sortes de choses, est-elle un agent du Hamas ? Une personne qui a fait partie du Hamas dans le passé, mais qui n’y est plus aujourd’hui, est-elle un agent du Hamas ? Chacune de ces caractéristiques – des caractéristiques qu’une machine signalerait comme suspectes – est inexacte”.

Des problèmes similaires se posent en ce qui concerne la capacité des machines de ciblage à évaluer le téléphone utilisé par une personne désignée pour être assassinée. “En temps de guerre, les Palestiniens changent constamment de téléphone”, explique la source. “Les gens perdent le contact avec leur famille, donnent leur téléphone à un ami ou à une épouse, et le perdent peut-être. Il est impossible de se fier à 100 % au mécanisme automatique qui détermine quel numéro de téléphone appartient à qui”.

Selon les sources, l’armée savait que la supervision humaine minimale en place ne permettrait pas de découvrir ces failles. Il n’y avait pas de politique “zéro erreur”. Les erreurs étaient traitées statistiquement”, a déclaré une source qui a utilisé Lavender. “En raison de la portée et de l’ampleur du projet, le protocole était le suivant : même si l’on n’est pas sûr que la machine soit correcte, on sait que statistiquement, elle va bien. C’est pourquoi on l’utilise.”

“Elle a fait ses preuves”, a déclaré B., la source principale. “Il y a quelque chose dans l’approche statistique qui vous fait respecter une certaine norme et un certain standard. Il y a eu un nombre illogique de [bombardements] dans cette opération. De mémoire, c’est sans précédent. Et je fais bien plus confiance à un mécanisme statistique qu’à un soldat qui a perdu un ami il y a deux jours. Tout le monde, y compris moi, a perdu des gens le 7 octobre. La machine l’a fait froidement. Et cela a facilité les choses.

Une autre source de renseignements, qui a défendu le recours aux listes de suspects palestiniens établies par Lavender, a fait valoir qu’il valait la peine d’investir le temps d’un agent de renseignements uniquement pour vérifier les informations si la cible était un haut commandant du Hamas. “Mais lorsqu’il s’agit d’un militant subalterne, il n’est pas souhaitable d’investir du temps et de la main-d’œuvre dans cette tâche”, a-t-il déclaré. “En temps de guerre, on n’a pas le temps d’incriminer chaque cible. On est donc prêt à prendre la marge d’erreur de l’utilisation de l’intelligence artificielle, à risquer des dommages collatéraux et la mort de civils, et à risquer d’attaquer par erreur, et à s’en accommoder”.

B. explique que la raison de cette automatisation est la volonté constante de créer davantage de cibles à assassiner. “Le jour où il n’y avait pas de cibles [dont l’évaluation des caractéristiques était suffisante pour autoriser une frappe], nous attaquions à un seuil plus bas. On nous mettait constamment la pression : “Apportez-nous plus de cibles”. Ils nous ont vraiment crié dessus. Nous avons fini [de tuer] nos cibles très rapidement”.

Il a expliqué qu’en abaissant le seuil d’évaluation de Lavender, le système marquait davantage de personnes comme cibles pour les frappes. “À son apogée, le système a réussi à générer 37 000 personnes comme cibles humaines potentielles”, a déclaré B. “Mais les chiffres changeaient tout le temps, car cela dépendait de la définition que l’on donnait à un agent du Hamas. À certains moments, la définition d’un agent du Hamas était plus large, puis la machine a commencé à nous fournir toutes sortes d’agents de la défense civile et de la police, sur lesquels il serait dommage de gaspiller des bombes. Ils aident le gouvernement du Hamas, mais ne mettent pas vraiment les soldats en danger”.

Une source qui a travaillé avec l’équipe militaire de science des données qui a formé Lavender a déclaré que les données collectées auprès des employés du ministère de la sécurité intérieure dirigé par le Hamas, qu’il ne considère pas comme des militants, ont également été introduites dans la machine. J’ai été gêné par le fait que lors de la formation de Lavender, le terme “agent du Hamas” a été utilisé de manière vague et que des personnes travaillant pour la défense civile ont été incluses dans l’ensemble de données de formation”, a-t-il déclaré.

La source a ajouté que même si l’on pense que ces personnes méritent d’être tuées, le fait d’entraîner le système sur la base de leurs profils de communication rendait Lavender plus susceptible de sélectionner des civils par erreur lorsque ses algorithmes étaient appliqués à l’ensemble de la population. “Comme il s’agit d’un système automatique qui n’est pas géré manuellement par des humains, la signification de cette décision est dramatique : cela signifie que vous incluez de nombreuses personnes ayant un profil de communication civil en tant que cibles potentielles.

Nous avons seulement vérifié que la cible était un homme”.

L’armée israélienne rejette catégoriquement ces affirmations. Dans une déclaration à +972 et Local Call, le porte-parole des FDI a nié utiliser l’intelligence artificielle pour incriminer des cibles, affirmant qu’il s’agit simplement “d’outils auxiliaires qui aident les officiers dans le processus d’incrimination”. Le communiqué poursuit : “Dans tous les cas, un examen indépendant par un analyste [du renseignement] est nécessaire, qui vérifie que les cibles identifiées sont des cibles légitimes pour l’attaque, conformément aux conditions énoncées dans les directives de Tsahal et le droit international.

Toutefois, des sources ont indiqué que le seul protocole de supervision humaine mis en place avant de bombarder les maisons des militants “juniors” présumés marqués par Lavender consistait à effectuer une seule vérification : s’assurer que la cible sélectionnée par l’IA était un homme plutôt qu’une femme. L’armée partait du principe que si la cible était une femme, la machine s’était probablement trompée, car il n’y a pas de femmes dans les rangs des ailes militaires du Hamas et du PIJ.

“Un être humain devait [vérifier la cible] pendant quelques secondes seulement”, a déclaré B., expliquant que ce protocole a été adopté après avoir constaté que le système Lavender “donnait raison” la plupart du temps. “Au début, nous faisions des vérifications pour nous assurer que la machine ne s’embrouillait pas. Mais à un moment donné, nous nous sommes fiés au système automatique et nous nous sommes contentés de vérifier que [la cible] était un homme – c’était suffisant. Il ne faut pas beaucoup de temps pour savoir si quelqu’un a une voix d’homme ou de femme”.

Pour effectuer la vérification homme/femme, B. affirme que dans la guerre actuelle, “je consacrerais 20 secondes à chaque cible à ce stade, et j’en ferais des douzaines chaque jour. Je n’avais aucune valeur ajoutée en tant qu’être humain, si ce n’est d’être un tampon d’approbation. Cela permettait de gagner beaucoup de temps. Si [l’agent] apparaissait dans le mécanisme automatisé et que je vérifiais qu’il s’agissait d’un homme, j’avais l’autorisation de le bombarder, sous réserve d’un examen des dommages collatéraux”.

Dans la pratique, les sources ont déclaré que cela signifiait que pour les hommes civils marqués par erreur par Lavender, il n’y avait pas de mécanisme de supervision en place pour détecter l’erreur. Selon B., une erreur courante se produit “si la cible [du Hamas] donne [son téléphone] à son fils, à son frère aîné ou à un homme au hasard. Cette personne sera bombardée dans sa maison avec sa famille. Cela s’est souvent produit. C’est la plupart des erreurs causées par Lavender”, explique B.

ÉTAPE 2 : RELIER LES CIBLES AUX MAISONS FAMILIALES

La plupart des personnes tuées étaient des femmes et des enfants

L’étape suivante de la procédure d’assassinat de l’armée israélienne consiste à déterminer où attaquer les cibles générées par Lavender.

Dans une déclaration à +972 et Local Call, le porte-parole de l’IDF a affirmé, en réponse à cet article, que “le Hamas place ses agents et ses moyens militaires au cœur de la population civile, utilise systématiquement la population civile comme bouclier humain et mène des combats à l’intérieur de structures civiles, y compris des sites sensibles tels que des hôpitaux, des mosquées, des écoles et des installations de l’ONU”. Les FDI sont liées par le droit international et agissent conformément à celui-ci, en dirigeant leurs attaques uniquement contre des cibles militaires et des agents militaires”.

Les six sources avec lesquelles nous nous sommes entretenus ont fait écho à ces propos dans une certaine mesure, affirmant que le vaste réseau de tunnels du Hamas passe délibérément sous les hôpitaux et les écoles, que les militants du Hamas utilisent des ambulances pour se déplacer et qu’un nombre incalculable de moyens militaires ont été placés à proximité de bâtiments civils. Les sources affirment que de nombreuses frappes israéliennes tuent des civils en raison de ces tactiques du Hamas – une caractérisation qui, selon les groupes de défense des droits de l’homme , élude la responsabilité d’Israël dans l’apparition de ces victimes.

Toutefois, contrairement aux déclarations officielles de l’armée israélienne, les sources ont expliqué que l’une des principales raisons du nombre sans précédent de victimes des bombardements israéliens actuels est le fait que l’armée a systématiquement attaqué les cibles dans leurs maisons privées, avec leurs familles – en partie parce qu’il était plus facile, du point de vue du renseignement, de marquer les maisons familiales à l’aide de systèmes automatisés.

En effet, plusieurs sources ont souligné que, contrairement aux nombreux cas d’agents du Hamas engagés dans des activités militaires depuis des zones civiles, dans le cas des frappes d’assassinat systématiques, l’armée a régulièrement fait le choix actif de bombarder des militants présumés lorsqu’ils se trouvaient à l’intérieur de maisons civiles où aucune activité militaire n’avait lieu. Ce choix, ont-ils déclaré, est le reflet de la manière dont le système israélien de surveillance de masse à Gaza est conçu.

Les sources ont déclaré à +972 et à Local Call que, puisque chaque habitant de Gaza avait une maison privée à laquelle il pouvait être associé, les systèmes de surveillance de l’armée pouvaient facilement et automatiquement “relier” les individus aux maisons familiales. Afin d’identifier en temps réel le moment où les agents entrent dans leurs maisons, plusieurs logiciels automatiques supplémentaires ont été développés. Ces programmes suivent des milliers d’individus simultanément, identifient le moment où ils sont chez eux et envoient une alerte automatique à l’officier chargé du ciblage, qui marque alors la maison pour le bombardement. L’un de ces logiciels, révélé ici pour la première fois, s’appelle “Where’s Daddy ?” (Où est papa ?).

“Vous entrez des centaines [de cibles] dans le système et vous attendez de voir qui vous pouvez tuer”, a déclaré une source connaissant le système. “C’est ce qu’on appelle la chasse au large : vous copiez-collez les listes produites par le système de ciblage.

La preuve de cette politique est également évidente dans les données : au cours du premier mois de la guerre, plus de la moitié des victimes – 6 120 personnes – appartenaient à 1 340 familles, dont beaucoup ont été complètement anéanties à l’intérieur de leur maison, selon les chiffres de l’ONU. La proportion de familles entières bombardées dans leurs maisons au cours de la guerre actuelle est beaucoup plus élevée que lors de l’opération israélienne de 2014 à Gaza (qui était auparavant la guerre la plus meurtrière d’Israël dans la bande de Gaza), ce qui suggère encore l’importance de cette politique.

Une autre source a déclaré que chaque fois que le rythme des assassinats diminuait, d’autres cibles étaient ajoutées à des systèmes tels que Where’s Daddy ? pour localiser les individus qui entraient chez eux et pouvaient donc être bombardés. Il a ajouté que la décision de placer des personnes dans les systèmes de repérage pouvait être prise par des officiers de rang relativement bas dans la hiérarchie militaire.

“Un jour, de mon propre chef, j’ai ajouté quelque 1 200 nouvelles cibles au système [de repérage], parce que le nombre d’attaques [que nous menions] diminuait”, a déclaré la source. “Cela me paraissait logique. Rétrospectivement, cela semble être une décision sérieuse que j’ai prise. Et de telles décisions n’ont pas été prises à des niveaux élevés”.

Les sources ont déclaré qu’au cours des deux premières semaines de la guerre, “plusieurs milliers” de cibles ont été initialement entrées dans des programmes de localisation tels que “Où est papa”. Il s’agissait notamment de tous les membres de l’unité d’élite des forces spéciales du Hamas, la Nukhba, de tous les agents antichars du Hamas et de toute personne ayant pénétré en Israël le 7 octobre. Mais très vite, la liste des personnes à abattre s’est considérablement allongée.

“En fin de compte, il s’agissait de tout le monde [marqué par Lavender]”, a expliqué une source. “Des dizaines de milliers. Cela s’est produit quelques semaines plus tard, lorsque les brigades [israéliennes] sont entrées dans Gaza et qu’il y avait déjà moins de personnes non impliquées [c’est-à-dire de civils] dans les zones du nord”. Selon cette source, même certains mineurs ont été désignés par Lavender comme des cibles à bombarder. “Normalement, les agents ont plus de 17 ans, mais ce n’était pas une condition.

Lavender et des systèmes comme Where’s Daddy ? ont donc été combinés avec un effet mortel, tuant des familles entières, selon les sources. En ajoutant un nom figurant sur les listes générées par Lavender au système de suivi des maisons Where’s Daddy ?, explique A., la personne marquée était placée sous surveillance permanente et pouvait être attaquée dès qu’elle mettait le pied chez elle, ce qui faisait s’effondrer la maison sur toutes les personnes qui s’y trouvaient.

“Disons que vous calculez [qu’il y a un] [agent du Hamas] et 10 [civils dans la maison]”, explique A.. “En général, ces dix personnes sont des femmes et des enfants. Il est donc absurde de penser que la plupart des personnes tuées étaient des femmes et des enfants.

ÉTAPE 3 : LE CHOIX DE L’ARME

Nous menions généralement nos attaques à l’aide de “bombes muettes”.

Une fois que Lavender a désigné une cible à assassiner, que le personnel de l’armée a vérifié qu’il s’agit bien d’un homme et qu’un logiciel de suivi a localisé la cible à son domicile, l’étape suivante consiste à choisir la munition avec laquelle on va la bombarder.

En décembre 2023, CNN a rapporté que, selon les estimations des services de renseignement américains, environ 45 % des munitions utilisées par l’armée de l’air israélienne à Gaza étaient des bombes “muettes”, connues pour causer plus de dommages collatéraux que les bombes guidées. En réponse à l’article de CNN, un porte-parole de l’armée cité dans l’article a déclaré : “En tant qu’armée attachée au droit international et à un code de conduite moral, nous consacrons de vastes ressources à minimiser les dommages causés aux civils que le Hamas a contraints à jouer le rôle de boucliers humains. Notre guerre est contre le Hamas, pas contre la population de Gaza”.

Trois sources des services de renseignement ont toutefois déclaré à +972 et à Local Call que les agents subalternes marqués par Lavender n’avaient été assassinés qu’avec des bombes muettes, afin d’économiser des armements plus coûteux. L’une des sources a expliqué que l’armée ne frappait pas une cible subalterne si elle vivait dans un immeuble de grande hauteur, parce qu’elle ne voulait pas dépenser une “bombe d’étage” plus précise et plus chère (avec des effets collatéraux plus limités) pour la tuer. En revanche, si une cible de rang inférieur vivait dans un immeuble de quelques étages seulement, l’armée était autorisée à la tuer, ainsi que tous les habitants de l’immeuble, à l’aide d’une bombe muette.

“C’était comme ça avec toutes les petites cibles”, témoigne C., qui a utilisé divers programmes automatisés dans la guerre actuelle. “La seule question était de savoir s’il était possible d’attaquer le bâtiment en limitant les dommages collatéraux. En effet, nous menions généralement les attaques avec des bombes muettes, ce qui signifiait détruire littéralement toute la maison et ses occupants. Mais même si une attaque est évitée, on s’en fiche, on passe immédiatement à la cible suivante. Grâce au système, les cibles ne s’arrêtent jamais. Il y en a encore 36 000 qui attendent”.

ÉTAPE 4 : AUTORISER LES PERTES CIVILES

Nous avons attaqué presque sans tenir compte des dommages collatéraux

Une source a déclaré que lors de l’attaque d’agents subalternes, y compris ceux marqués par des systèmes d’intelligence artificielle comme Lavender, le nombre de civils qu’ils étaient autorisés à tuer à côté de chaque cible était fixé, pendant les premières semaines de la guerre, à 20 au maximum. Selon une autre source, ce nombre aurait été fixé à 15. Ces “degrés de dommages collatéraux”, comme les militaires les appellent, ont été appliqués de manière générale à tous les militants juniors présumés, selon les sources, indépendamment de leur rang, de leur importance militaire et de leur âge, et sans examen spécifique au cas par cas pour évaluer l’avantage militaire de les assassiner par rapport aux dommages attendus pour les civils.

Selon A., qui était officier dans une salle d’opérations de ciblage pendant la guerre actuelle, le département du droit international de l’armée n’a jamais donné une telle “approbation générale” pour un degré de dommages collatéraux aussi élevé. “Ce n’est pas seulement que vous pouvez tuer toute personne qui est un soldat du Hamas, ce qui est clairement autorisé et légitime en termes de droit international”, a déclaré A.. “Mais ils vous disent directement : Vous êtes autorisés à les tuer en même temps que de nombreux civils.

“Chaque personne ayant porté un uniforme du Hamas au cours de l’année ou des deux dernières années pourrait être bombardée avec 20 [civils tués] comme dommages collatéraux, même sans autorisation spéciale”, a poursuivi M. A.. “Dans la pratique, le principe de proportionnalité n’existait pas.

Selon A., cette politique a été appliquée pendant la majeure partie de la période où il a servi. Ce n’est que plus tard que l’armée a abaissé le niveau des dommages collatéraux. “Dans ce calcul, il peut s’agir de 20 enfants pour un agent subalterne… Ce n’était vraiment pas le cas dans le passé”, explique A.. Interrogé sur la logique sécuritaire qui sous-tend cette politique, A. a répondu : “La létalité” : “La létalité”.

Le degré prédéterminé et fixe des dommages collatéraux a contribué à accélérer la création massive de cibles à l’aide de la machine Lavender, ont déclaré des sources, car cela permettait de gagner du temps. B. a affirmé que le nombre de civils qu’ils étaient autorisés à tuer au cours de la première semaine de la guerre par militant junior présumé marqué par l’IA était de quinze, mais que ce nombre “augmentait et diminuait” au fil du temps.

“Au début, nous avons attaqué presque sans tenir compte des dommages collatéraux”, a déclaré B. à propos de la première semaine qui a suivi le 7 octobre. “En pratique, on ne comptait pas vraiment les personnes [dans chaque maison bombardée], parce qu’on ne pouvait pas vraiment savoir si elles étaient chez elles ou non. Au bout d’une semaine, les restrictions sur les dommages collatéraux ont commencé. Le nombre est passé [de 15] à cinq, ce qui a rendu nos attaques très difficiles, car si toute la famille était à la maison, nous ne pouvions pas la bombarder. Puis ils ont à nouveau augmenté ce nombre.

Nous savions que nous allions tuer plus de 100 civils

Des sources ont déclaré à +972 et à Local Call que maintenant, en partie à cause de la pression américaine, l’armée israélienne ne génère plus en masse des cibles humaines juniors pour les bombardements dans les maisons civiles. Le fait que la plupart des maisons de la bande de Gaza aient déjà été détruites ou endommagées, et que la quasi-totalité de la population ait été déplacée, a également réduit la capacité de l’armée à s’appuyer sur des bases de données de renseignements et des programmes automatisés de localisation des maisons.

E. a affirmé que les bombardements massifs des militants juniors n’ont eu lieu que pendant la première ou les deux premières semaines de la guerre, et qu’ils ont ensuite été interrompus principalement pour ne pas gaspiller les bombes. “Il existe une économie des munitions”, a déclaré E.. “Ils ont toujours eu peur qu’il y ait [une guerre] dans l’arène nord [avec le Hezbollah au Liban]. Ils n’attaquent plus du tout ce genre de personnes [de rang inférieur]”.

Cependant, les frappes aériennes contre les commandants de haut rang du Hamas se poursuivent, et des sources ont déclaré que pour ces attaques, l’armée autorise le meurtre de “centaines” de civils par cible – une politique officielle pour laquelle il n’y a pas de précédent historique en Israël, ni même dans les récentes opérations militaires américaines.

“Lors du bombardement du commandant du bataillon Shuja’iya, nous savions que nous allions tuer plus de 100 civils”, a rappelé B. à propos d’un bombardement du 2 décembre qui , selon le porte-parole de l’IDF , visait à assassiner Wisam Farhat. “Pour moi, psychologiquement, c’était inhabituel. Plus de 100 civils, c’est une ligne rouge à ne pas franchir.

Amjad Al-Sheikh, un jeune Palestinien de Gaza, a déclaré que de nombreux membres de sa famille avaient été tués dans ce bombardement. Habitant de Shuja’iya, à l’est de la ville de Gaza, il se trouvait ce jour-là dans un supermarché local lorsqu’il a entendu cinq détonations qui ont brisé les vitres.

“J’ai couru vers la maison de ma famille, mais il n’y avait plus d’immeubles”, a déclaré M. Al-Sheikh à +972 et à Local Call. “La rue était remplie de cris et de fumée. Des pâtés de maisons entiers se sont transformés en montagnes de décombres et en fosses profondes. Les gens ont commencé à chercher dans le ciment, avec leurs mains, et j’ai fait de même, à la recherche de traces de la maison de ma famille”.

La femme et la petite fille d’Al-Sheikh ont survécu – protégées des décombres par une armoire qui leur est tombée dessus – mais il a retrouvé 11 autres membres de sa famille, dont ses sœurs, ses frères et leurs jeunes enfants, morts sous les décombres. Selon l’organisation de défense des droits de l’homme B’Tselem, les bombardements de ce jour-là ont détruit des dizaines de bâtiments, tué des dizaines de personnes et en ont enseveli des centaines sous les ruines de leurs maisons.

Des familles entières ont été tuées

Des sources de renseignements ont déclaré à +972 et à Local Call qu’ils ont participé à des frappes encore plus meurtrières. Afin d’assassiner Ayman Nofal, le commandant de la Brigade centrale de Gaza du Hamas, une source a déclaré que l’armée avait autorisé le meurtre d’environ 300 civils, détruisant plusieurs bâtiments lors de frappes aériennes sur le camp de réfugiés d’Al-Bureij le 17 octobre, sur la base d’un repérage imprécis de Nofal. Des images satellite et des vidéos de la scène montrent la destruction de plusieurs grands immeubles d’habitation à plusieurs étages.

“Entre 16 et 18 maisons ont été détruites lors de l’attaque”, a déclaré Amro Al-Khatib, un résident du camp, à +972 et à Local Call. “Nous ne pouvions pas distinguer un appartement d’un autre – ils ont tous été mélangés dans les décombres, et nous avons trouvé des parties de corps humains partout”.

Al-Khatib se souvient qu’une cinquantaine de cadavres ont été retirés des décombres et qu’environ 200 personnes ont été blessées, dont beaucoup grièvement. Mais ce n’était que le premier jour. Les résidents du camp ont passé cinq jours à sortir les morts et les blessés.

Nael Al-Bahisi, un secouriste, a été l’un des premiers à arriver sur les lieux. Il a dénombré entre 50 et 70 victimes ce premier jour. “À un moment donné, nous avons compris que la cible de la frappe était le commandant du Hamas Ayman Nofal”, a-t-il déclaré à +972 et à Local Call. “Ils l’ont tué, ainsi que de nombreuses personnes qui ne savaient pas qu’il était là. Des familles entières avec des enfants ont été tuées.

Une autre source de renseignements a déclaré à +972 et à Local Call que l’armée avait détruit une tour à Rafah à la mi-décembre, tuant “des dizaines de civils”, afin d’essayer de tuer Mohammed Shabaneh, le commandant de la brigade du Hamas à Rafah (on ne sait pas s’il a été tué ou non lors de l’attaque). Selon la source, les hauts commandants se cachent souvent dans des tunnels qui passent sous des bâtiments civils, et le choix de les assassiner par une frappe aérienne tue donc nécessairement des civils.

“La plupart des blessés étaient des enfants”, a déclaré Wael Al-Sir, 55 ans, qui a assisté à la frappe de grande envergure que certains habitants de Gaza considèrent comme une tentative d’assassinat. Il a déclaré à +972 et à Local Call que le bombardement du 20 décembre avait détruit un “bloc résidentiel entier” et tué au moins 10 enfants.

“Il y avait une politique tout à fait permissive concernant les victimes des opérations [de bombardement] – tellement permissive qu’à mon avis, il y avait un élément de vengeance”, affirme D., une source des services de renseignement. “L’élément central était l’assassinat de hauts responsables [du Hamas et du PIJ] pour lesquels ils étaient prêts à tuer des centaines de civils. Nous avions un calcul : combien pour un commandant de brigade, combien pour un commandant de bataillon, etc.

“Il y avait des règlements, mais ils étaient très indulgents”, a déclaré E., une autre source de renseignements. “Nous avons tué des gens avec des dommages collatéraux à deux chiffres, voire à trois chiffres. Ce sont des choses qui ne s’étaient jamais produites auparavant”.

Un taux aussi élevé de “dommages collatéraux” est exceptionnel non seulement par rapport à ce que l’armée israélienne jugeait acceptable auparavant, mais aussi par rapport aux guerres menées par les États-Unis en Irak, en Syrie et en Afghanistan.

Le général Peter Gersten, commandant adjoint des opérations et du renseignement dans l’opération de lutte contre ISIS en Irak et en Syrie, a déclaré à un magazine de défense américain en 2021 qu’une attaque avec des dommages collatéraux de 15 civils s’écartait de la procédure ; pour la mener à bien, il avait dû obtenir une autorisation spéciale du chef du Commandement central des États-Unis, le général Lloyd Austin, qui est aujourd’hui secrétaire à la Défense.

“Dans le cas d’Oussama Ben Laden, la NCV [Non-combatant Casualty Value] était de 30, mais dans le cas d’un commandant de rang inférieur, la NCV était généralement de zéro”, a expliqué M. Gersten. “Nous sommes restés à zéro pendant très longtemps.

On nous disait : “Faites tout ce que vous pouvez, bombardez””.

Toutes les sources interrogées dans le cadre de cette enquête ont déclaré que les massacres perpétrés par le Hamas le 7 octobre et l’enlèvement des otages avaient fortement influencé la politique de l’armée en matière de tirs et de degrés de dommages collatéraux. “Au début, l’atmosphère était pénible et vindicative”, a déclaré B., qui a été enrôlé dans l’armée immédiatement après le 7 octobre et a servi dans une salle d’opérations. “Les règles étaient très souples. Ils ont détruit quatre bâtiments alors qu’ils savaient que la cible se trouvait dans l’un d’entre eux. C’était de la folie.

“Il y avait une dissonance : d’une part, les gens ici étaient frustrés que nous n’attaquions pas assez”, poursuit B.. “D’autre part, à la fin de la journée, on constate qu’un millier d’habitants de Gaza sont morts, la plupart d’entre eux étant des civils.

“L’hystérie régnait dans les rangs des professionnels”, affirme D., qui a également été incorporé immédiatement après le 7 octobre. “Ils ne savaient pas du tout comment réagir. La seule chose qu’ils savaient faire était de commencer à bombarder comme des fous pour essayer de démanteler les capacités du Hamas.”

D. a souligné qu’on ne leur avait pas dit explicitement que l’objectif de l’armée était la “vengeance”, mais il a déclaré que “dès que chaque cible liée au Hamas devient légitime, et que presque tous les dommages collatéraux sont approuvés, il est clair que des milliers de personnes vont être tuées. Même si officiellement chaque cible est liée au Hamas, lorsque la politique est si permissive, elle perd tout son sens”.

A. a également utilisé le mot “vengeance” pour décrire l’atmosphère qui régnait au sein de l’armée après le 7 octobre. “Personne n’a pensé à ce qu’il faudrait faire après, une fois la guerre terminée, ni à la façon dont il serait possible de vivre à Gaza et à ce qu’ils en feraient”, a déclaré A.. “On nous a dit : maintenant, il faut foutre en l’air le Hamas, quel qu’en soit le prix. Tout ce que vous pouvez, vous le bombardez”.

B., la source principale des services de renseignement, a déclaré qu’avec le recul, il pense que cette politique “disproportionnée” consistant à tuer des Palestiniens à Gaza met également en danger les Israéliens, et que c’est l’une des raisons pour lesquelles il a décidé de se prêter à l’exercice de l’interview.

“À court terme, nous sommes plus en sécurité, car nous avons blessé le Hamas. Mais je pense que nous sommes moins en sécurité à long terme. Je vois comment toutes les familles endeuillées à Gaza – c’est-à-dire presque tout le monde – motiveront les gens à rejoindre le Hamas dans dix ans. Et il sera beaucoup plus facile pour [le Hamas] de les recruter”.

Dans une déclaration à +972 et à Local Call, l’armée israélienne a démenti une grande partie de ce que les sources nous ont dit, affirmant que “chaque cible est examinée individuellement, tandis qu’une évaluation individuelle est faite de l’avantage militaire et des dommages collatéraux attendus de l’attaque … Les FDI ne mènent pas d’attaques lorsque les dommages collatéraux attendus de l’attaque sont excessifs par rapport à l’avantage militaire”.

ÉTAPE 5 : CALCUL DES DOMMAGES COLLATÉRAUX

Le modèle ne correspondait pas à la réalité

Selon les sources de renseignement, le calcul par l’armée israélienne du nombre de civils susceptibles d’être tués dans chaque maison située à côté d’une cible – une procédure examinée dans une enquête précédente de +972 et Local Call – a été effectué à l’aide d’outils automatiques et imprécis. Lors des guerres précédentes, les services de renseignement passaient beaucoup de temps à vérifier le nombre de personnes présentes dans une maison destinée à être bombardée, le nombre de civils susceptibles d’être tués étant répertorié dans un “fichier cible”. Après le 7 octobre, cependant, cette vérification minutieuse a été largement abandonnée au profit de l’automatisation.

En octobre, le New York Times a fait état d’un système exploité à partir d’une base spéciale dans le sud d’Israël, qui recueille des informations à partir de téléphones portables dans la bande de Gaza et fournit à l’armée une estimation en temps réel du nombre de Palestiniens qui ont fui le nord de la bande de Gaza pour se diriger vers le sud. Le général de brigade Udi Ben Muha a déclaré au Times : “Ce n’est pas un système parfait à 100 %, mais il vous donne les informations dont vous avez besoin pour prendre une décision”. Le système fonctionne par couleurs : le rouge indique les zones où il y a beaucoup de monde, tandis que le vert et le jaune indiquent les zones qui ont été relativement débarrassées de leurs habitants.

Les sources qui ont parlé à +972 et à Local Call ont décrit un système similaire de calcul des dommages collatéraux, utilisé pour décider de bombarder ou non un bâtiment à Gaza. Elles ont déclaré que le logiciel calculait le nombre de civils résidant dans chaque maison avant la guerre – en évaluant la taille du bâtiment et en examinant sa liste de résidents – et réduisait ensuite ces chiffres par la proportion de résidents censés avoir évacué le quartier.

Par exemple, si l’armée estime que la moitié des habitants d’un quartier sont partis, le programme comptabilise une maison qui compte habituellement 10 habitants comme une maison contenant cinq personnes. Pour gagner du temps, l’armée n’a pas surveillé les maisons pour vérifier combien de personnes y vivaient réellement, comme elle l’avait fait lors d’opérations précédentes, afin de savoir si l’estimation du programme était effectivement exacte.

“Ce modèle n’était pas lié à la réalité”, a déclaré l’une des sources. “Il n’y avait aucun lien entre les personnes qui vivaient dans la maison aujourd’hui, pendant la guerre, et celles qui étaient répertoriées comme vivant dans la maison avant la guerre. [Il nous est arrivé de bombarder une maison sans savoir qu’il y avait plusieurs familles à l’intérieur, qui se cachaient ensemble.

Selon la source, bien que l’armée ait su que de telles erreurs pouvaient se produire, ce modèle imprécis a tout de même été adopté, car il était plus rapide. Ainsi, selon la source, “le calcul des dommages collatéraux était complètement automatique et statistique” – et produisait même des chiffres qui n’étaient pas des nombres entiers.

ÉTAPE 6 : BOMBARDER LA MAISON D’UNE FAMILLE

Vous avez tué une famille sans raison

Les sources qui ont parlé à +972 et à Local Call ont expliqué qu’il y avait parfois un décalage important entre le moment où les systèmes de repérage comme Where’s Daddy ? alertaient un officier qu’une cible était entrée dans sa maison, et le bombardement lui-même – ce qui a conduit à la mort de familles entières, même sans atteindre la cible de l’armée. “Il m’est arrivé plusieurs fois d’attaquer une maison, mais la personne n’était même pas chez elle”, a déclaré une source. “Le résultat est que vous avez tué une famille sans raison.

Trois sources de renseignement ont déclaré à +972 et à Local Call qu’elles avaient été témoins d’un incident au cours duquel l’armée israélienne avait bombardé la maison privée d’une famille, et qu’il s’était avéré par la suite que la cible visée par l’assassinat n’était même pas à l’intérieur de la maison, étant donné qu’aucune vérification supplémentaire n’avait été effectuée en temps réel.

« Parfois, [la cible] était à la maison plus tôt, puis la nuit, elle allait dormir ailleurs, disons sous terre, et vous ne le saviez pas », a déclaré l’une des sources. « Il y a des moments où vous vérifiez l’emplacement, et il y a des moments où vous dites simplement : ‘D’accord, il était dans la maison ces dernières heures, donc vous pouvez simplement bombarder.’ »

Une autre source a décrit un incident similaire qui l’a affecté et lui a donné envie d’être interviewé dans le cadre de cette enquête. « Nous avons compris que la cible était à la maison à 20 heures. En fin de compte, l’armée de l’air a bombardé la maison à 3 heures du matin. Puis nous avons découvert [dans ce laps de temps] qu’il avait réussi à déménager dans une autre maison avec sa famille. Il y avait deux autres familles avec des enfants dans le bâtiment que nous avons bombardé.

Lors des guerres précédentes à Gaza, après l’assassinat de cibles humaines, les services de renseignement israéliens effectuaient des procédures d’évaluation des dommages causés par les bombes (BDA) – une vérification de routine après la frappe pour voir si le commandant supérieur avait été tué et combien de civils avaient été tués avec lui. Comme l’a révélé une précédente enquête sur +972 et Local Call, il s’agissait d’écouter les appels téléphoniques de parents qui ont perdu leurs proches. Dans la guerre actuelle, cependant, du moins en ce qui concerne les militants juniors marqués à l’aide de l’IA, des sources affirment que cette procédure a été abolie afin de gagner du temps. Les sources ont déclaré qu’elles ne savaient pas combien de civils avaient été tués dans chaque frappe, et pour les membres présumés du Hamas et du JIP de rang inférieur marqués par l’IA, elles ne savaient même pas si la cible elle-même avait été tuée.

« Vous ne savez pas exactement combien vous avez tué, et qui vous avez tué », a déclaré une source du renseignement à Local Call pour une enquête précédente publiée en janvier. « Ce n’est que lorsqu’il s’agit d’agents haut placés du Hamas que l’on suit la procédure de la BDA. Dans le reste des cas, vous vous en fichez. Vous recevez un rapport de l’armée de l’air pour savoir si le bâtiment a explosé, et c’est tout. Vous n’avez aucune idée de l’ampleur des dommages collatéraux qu’il y a eus ; Vous passez immédiatement à la cible suivante. L’accent était mis sur la création d’autant de cibles que possible, le plus rapidement possible.

Mais alors que l’armée israélienne peut passer à autre chose sans s’attarder sur le nombre de victimes, Amjad Al-Sheikh, l’habitant de Shuja’iya qui a perdu 11 membres de sa famille dans le bombardement du 2 décembre, a déclaré que lui et ses voisins étaient toujours à la recherche de cadavres.

« Jusqu’à présent, il y a des corps sous les décombres », a-t-il dit. « Quatorze immeubles résidentiels ont été bombardés avec leurs résidents à l’intérieur. Certains de mes proches et voisins sont encore enterrés.

Yuval Abraham est un journaliste et cinéaste basé à Jérusalem.

Traduction : AFPS-Rennes

04 avril 2024
Publié par
AFPS - Comité Rennais
9-11 rue de Flandres
35000 - Rennes