Menu

20 secondi per uccidere: lo decide la macchina

Nel 2021 è stato pubblicato in inglese un libro intitolato The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World, sotto lo pseudonimo «Brigadier General Y.S.».

In esso, l’autore – un uomo che abbiamo confermato essere l’attuale comandante dell’unità di intelligence d’elite israeliana 8200 – sostiene la necessità di creare una macchina speciale, in grado di processare rapidamente enormi quantità di dati per generare migliaia di potenziali «obiettivi» per gli attacchi militari nel mezzo di una guerra.

Una tecnologia del genere, scrive, risolverebbe quelle che ha descritto come «strettoie umane, sia nell’individuazione di nuovi obiettivi che nel processo decisionale per approvarli».

Una tale macchina, si è scoperto, esiste davvero.

Una nuova inchiesta condotta da +972 Magazine e Local Call rivela che l’esercito israeliano ha sviluppato un programma basato sull’intelligenza artificiale noto come Lavender, di cui qui si scrive per la prima volta.

Secondo sei ufficiali di intelligence israeliani – i quali hanno tutti servito nell’esercito durante la guerra attuale nella Striscia di Gaza e sono stati direttamente coinvolti nell’uso dell’Ia per generare obiettivi da assassinare – Lavender ha giocato un ruolo centrale nei bombardamenti senza precedenti dei palestinesi, specialmente durante le fasi iniziali della guerra.

Infatti, secondo le fonti, la sua influenza sulle operazioni militari era tale che essenzialmente consideravano gli output prodotti dall’intelligenza artificiale «come se fossero decisioni umane».

Formalmente, il sistema Lavender è progettato per individuare tutti i sospetti miliziani dei rami militari di Hamas e del Jihad Islami, inclusi quelli di basso rango, come potenziali obiettivi di bombardamento.

Le fonti hanno raccontato a +972 e Local Call che, durante le prime settimane della guerra, l’esercito ha quasi completamente fatto affidamento su Lavender, che ha contrassegnato come sospetti militanti fino a 37mila alestinesi – e le loro case – per possibili attacchi aerei.

Durante le prime fasi della guerra, l’esercito ha dato un ampio via libera agli ufficiali per adottare le liste di obiettivi da uccidere generate da Lavender, senza porre alcuna condizione di controllare accuratamente il motivo per cui la macchina aveva fatto quelle scelte, o di esaminare i dati di intelligence grezzi su cui si basavano.

Una fonte ha dichiarato che il personale umano spesso agiva solo come «timbro di approvazione» per le decisioni prese dalla macchina, aggiungendo che, personalmente, dedicava in media solo circa «20 secondi» a ciascun obiettivo prima di autorizzare un bombardamento – solo per assicurarsi che l’obiettivo contrassegnato da Lavender fosse di sesso maschie.

E questo nonostante fosse consapevole che il sistema commette quelli che vengono considerati «errori» in circa il 10 percento dei casi, ed è noto che occasionalmente vengano contrassegni individui che hanno solo un vago legame con gruppi militanti, o perfino nessuno.

Inoltre, l’esercito israeliano ha sistematicamente attaccato i bersagli mentre si trovavano nelle loro case – di solito la notte mentre erano presenti le loro intere famiglie – piuttosto che durante il corso delle attività militari.

Secondo le fonti questo accadeva perché, da quella che consideravano una prospettiva di intelligence, individuare gli individui nelle loro case private era più semplice.

Sistemi automatizzati aggiuntivi, tra cui uno chiamato Where’s Daddy? – anch’esso reso noto in questo articolo per la prima volta – sono stati utilizzati specificamente per rintracciare gli obiettivi e effettuare i bombardamenti quando erano entrati nelle loro abitazioni familiari.

Il risultato, come testimoniano le fonti, è che migliaia di palestinesi – la maggior parte donne e bambini o persone non coinvolte nei combattimenti – sono stati spazzati via dai bombardamenti israeliani, specialmente durante le prime settimane della guerra, a causa delle decisioni dell’intelligenza artificiale.

«Non ci interessava uccidere militanti di Hamas solo quando si trovavano in un edificio militare, o erano impegnati in un’attività militare – ha detto A., un ufficiale dell’intelligence, a +972 e Local Call – Al contrario, le Idf li hanno bombardati nelle loro case senza esitazione, come prima opzione. È molto più facile bombardare la casa di una famiglia. Il sistema è progettato per cercarli in queste situazioni».

La macchina Lavender si unisce a un altro sistema di intelligenza artificiale, The Gospel, su cui sono state rivelate informazioni in un’indagine precedente, del novembre 2023, di +972 e Local Call, così come in pubblicazioni dello stesso esercito israeliano.

Una differenza fondamentale tra i due sistemi risiede nella definizione del bersaglio: mentre The Gospel contrassegna edifici e strutture da cui, secondo l’esercito, operano i militanti, Lavender contrassegna le persone e le inserisce in una kill list.

Inoltre, secondo le fonti, quando si trattava di individuare presunti militanti di rango inferiore contrassegnati da Lavender, l’esercito preferiva utilizzare solo missili non guidati, comunemente noti come dumb bombs, bombe stupide (in contrasto con le bombe di precisione «smart»), che possono distruggere interi edifici insieme ai loro occupanti e causare un numero significativo di vittime.

«Non si vogliono sprecare bombe costose per persone di scarsa importanza – è molto costoso per il Paese e di queste bombe c’è una carenza», ha detto C., uno degli ufficiali di intelligence.

Un’altra fonte ha affermato di aver autorizzato personalmente il bombardamento di «centinaia» di case private di presunti miliziani di basso rango contrassegnati da Lavender: molti di questi attacchi hanno ucciso come «danni collaterali» civili e intere famiglie.

In una decisione senza precedenti, secondo due delle fonti, durante le prime settimane della guerra l’esercito ha anche stabilito che, per ogni presunto miliziano di basso rango di Hamas contrassegnato da Lavender, era consentito uccidere fino a 15 o 20 civili; in passato, l’esercito non autorizzava alcun «danno collaterale» durante gli assassinii di militanti di basso rango.

Le fonti hanno aggiunto che, nel caso in cui il bersaglio fosse un alto ufficiale di Hamas, con il grado di comandante di battaglione o brigata, l’esercito in diverse occasioni ha autorizzato l’uccisione di più di 100 civili nell’assassinio di un singolo comandante.

L’indagine che segue è organizzata secondo le sei fasi cronologiche della produzione altamente automatizzata di obiettivi da parte dell’esercito israeliano nelle prime settimane della guerra di Gaza.

In primo luogo, spieghiamo la stessa Lavender, che ha contrassegnato decine di migliaia di palestinesi utilizzando l’intelligenza artificiale.

In secondo luogo, riveliamo il funzionamento del sistema Where’s Daddy?, che monitorava questi obiettivi e segnalava all’esercito quando facevano ingresso nelle loro case familiari.

In terzo luogo, descriviamo come siano state scelte le bombe «stupide» per colpire queste case.

Nel quarto punto, spieghiamo come l’esercito abbia allargato il numero di civili che era consentito uccidere durante il bombardamento di un obiettivo.

Quinto: osserviamo come il software abbia calcolato erroneamente la quantità di non combattenti in ogni famiglia.

E sesto, mostriamo come in diverse occasioni, quando una casa è stata colpita, di solito di notte, il bersaglio a volte non si trovava al suo interno, perché gli ufficiali militari non avevano verificato le informazioni in tempo reale.

1: Generazione degli obiettivi

Nell’esercito israeliano, il termine «obiettivo umano» si riferiva in passato a un alto funzionario militare che, secondo le regole del Dipartimento di Diritto Internazionale militare, poteva essere ucciso nella propria casa privata anche se erano presenti civili.

Le fonti di intelligence hanno riferito a +972 e Local Call che durante le guerre precedenti di Israele, poiché questo era un «modo particolarmente brutale» per uccidere qualcuno – uccidendo cioè un’intera famiglia insieme al bersaglio – tali «obiettivi umani» venivano contrassegnati molto attentamente e solo i comandanti militari venivano bombardati nelle loro case, per mantenere il principio di proporzionalità dettato dal diritto internazionale.

Ma dopo il 7 ottobre – quando i militanti guidati da Hamas hanno lanciato un attacco mortale contro le comunità del sud di Israele, uccidendo circa 1.200 persone e sequestrandone 240 – l’esercito, hanno detto le fonti, ha adottato un approccio radicalmente diverso.

Nell’ambito dell’Operazione Spade di Ferro, l’esercito ha deciso di designare tutti gli operatori del braccio militare di Hamas come obiettivi umani, indipendentemente dal loro grado o importanza militare. E questo ha cambiato tutto.

La nuova politica ha anche posto un problema tecnico per l’intelligence israeliana. Nelle guerre precedenti, per autorizzare l’assassinio di un singolo obiettivo umano, un ufficiale doveva attraversare un complesso e lungo processo di «incriminazione»: verificare, incrociando le prove, che la persona in questione fosse effettivamente un alto ufficiale del braccio militare di Hamas, scoprire dove viveva, i suoi contatti, e infine quando era a casa in tempo reale.

Quando l’elenco degli obiettivi comprendeva solo alcuni dozzine di militanti di alto rango, il personale dell’intelligence poteva gestire individualmente il lavoro necessario per incriminarli e trovarli. Tuttavia, una volta che l’elenco è stato ampliato per includere decine di migliaia di miliziani di rango inferiore, l’esercito israeliano ha optato per fare affidamento su software automatizzati e intelligenza artificiale.

Il risultato, testimoniano le fonti, è che il ruolo del personale umano nell’incriminare i palestinesi come operatori militari è stato messo da parte, e l’IA ha fatto la maggior parte del lavoro al loro posto.

Secondo quattro delle fonti che hanno parlato con +972 e Local CallLavender – sviluppato per creare obiettivi umani nella guerra attuale – ha contrassegnato circa 37mila palestinesi come sospetti «militanti di Hamas», la maggior parte dei quali di rango inferiore, per essere assassinati (il portavoce delle Idf ha negato l’esistenza di tale kill list in una dichiarazione a +972 e Local Call).

«Non sapevamo chi fossero i miliziani di rango inferiore, perché prima della guerra Israele non li monitorava di routine», ha spiegato l’ufficiale B. a +972 e Local Call, illuminando il motivo dello sviluppo di questa particolare Intelligenza artificiale per la guerra attuale. «Volevano permetterci di attaccare questi miliziani automaticamente.  È il Sacro Graal. Una volta che passi all’automazione, la generazione degli obiettivi diventa una cosa folle».

Le fonti hanno detto che l’approvazione per adottare automaticamente le liste di Lavender, che in precedenza erano state utilizzate solo come strumento ausiliario, è stata concessa circa due settimane dopo l’inizio della guerra, in seguito a un controllo «manuale» da parte del personale dell’intelligence sull’accuratezza di un campione casuale di diverse centinaia di obiettivi selezionati dal sistema di IA.

Quando quel campione ha rivelato che i risultati di Lavender avevano una percentuale di accuratezza del 90 percento nell’identificare l’affiliazione di un individuo con Hamas, l’esercito ha autorizzato l’utilizzo del sistema su vasta scala.

Da quel momento, le fonti hanno affermato che se Lavender stabiliva che un individuo fosse un militante di Hamas, erano essenzialmente invitati a trattarlo come un ordine, senza necessità di verificare indipendentemente il perché la macchina avesse fatto quella scelta, o di esaminare i dati di intelligence grezzi su cui si basava.

«Alle 5 del mattino, l’aeronautica arrivava e bombardava tutte le case che avevamo contrassegnato – ha detto B. – Abbiamo eliminato migliaia di persone. Non li abbiamo esaminati uno per uno – abbiamo messo tutto nei sistemi automatici e non appena uno degli individui contrassegnati era a casa, diventava immediatamente un obiettivo. Bombardavamo lui e la sua casa».

«È stato sorprendente per me che ci venisse chiesto di bombardare una casa per uccidere un fante, la cui importanza nella battaglia era così bassa», ha detto una fonte riguardo all’uso dell’IA per contrassegnare presunti militanti di basso rango. «Li ho soprannominati ‘obiettivi spazzatura’. Tuttavia, li trovavo più etici dei bersagli che abbiamo bombardato solo per la ‘deterrenza’ – grattacieli evacuati e abbattuti solo per causare distruzione».

I risultati mortali di questo allentamento delle restrizioni nella fase iniziale della guerra sono stati stupefacenti.

Secondo i dati del ministero della Salute palestinese a Gaza, su cui l’esercito israeliano ha quasi esclusivamente fatto affidamento dall’inizio della guerra, Israele ha ucciso circa 15mila palestinesi – quasi la metà del bilancio delle vittime finora – nelle prime sei settimane della guerra, fino alla tregua di una settimana concordata il 24 novembre.

Il software Lavender analizza le informazioni raccolte sulla maggior parte dei 2,3 milioni di residenti della Striscia di Gaza attraverso un sistema di sorveglianza di massa, poi valuta e classifica la probabilità che ciascuna persona sia attiva nel braccio militare di Hamas o del Jihad Islami (Pij).

Secondo le fonti, la macchina assegna a quasi ogni persona a Gaza un punteggio da 1 a 100, esprimendo quanto è probabile che sia un miliziano.

Lavender impara a identificare le caratteristiche degli operatori noti di Hamas e Pij, il cui materiale informativo è stato inserito nella macchina (letteralmente “dato in pasto”, ndr) come training data, dati di addestramento, per poi individuare queste stesse caratteristiche – anche chiamate features – nella popolazione generale, hanno spiegato le fonti.

Un individuo con diverse caratteristiche incriminanti otterrà un punteggio alto, diventando così automaticamente un potenziale obiettivo per l’assassinio.

In The Human-Machine Team, il libro citato all’inizio di questo articolo, il comandante attuale dell’Unità 8200 sostiene la necessità di un sistema del genere senza citare Lavender per nome. (Il comandante stesso non è nominato, ma cinque fonti nell’8200 hanno confermato che il comandante è l’autore, come riportato anche da Haaretz).

Descrivendo il personale umano come una «strettoia» che limita la capacità dell’esercito durante un’operazione militare, il comandante si lamenta: «Noi umani non possiamo elaborare così tante informazioni. Non importa quante persone si siano incaricate di produrre obiettivi durante la guerra, non si riesce comunque a generarne abbastanza al giorno».

La soluzione a questo problema, afferma, è l’intelligenza artificiale. Il libro offre una breve guida alla costruzione di una «macchina di obiettivi», simile nella descrizione a Lavender, basata su algoritmi di intelligenza artificiale e machine learning.

Inclusi in questa guida ci sono diversi esempi delle «centinaia e migliaia» di caratteristiche che possono aumentare il punteggio di un individuo, come essere in un gruppo Whatsapp con un miliziano conosciuto, cambiare telefono cellulare ogni pochi mesi e cambiare frequentemente indirizzo.

«Più informazioni ci sono, e maggiore è la varietà, e meglio è – scrive il comandante – Informazioni visive, informazioni cellulari, connessioni sui social media, informazioni sul campo di battaglia, contatti telefonici, foto. Mentre inizialmente sono gli esseri umani a selezionare queste caratteristiche – continua il comandante – col passare del tempo la macchina imparerà a identificarle autonomamente». Questo, afferma, può consentire ai militari di creare «decine di migliaia di obiettivi», mentre la decisione effettiva su se attaccarli o meno rimarrà umana.

Il libro non è l’unica occasione in cui un alto comandante israeliano ha lasciato intendere l’esistenza di macchine per obiettivi umani come Lavender+972 e Local Call hanno ottenuto filmati di una lezione privata tenuta dal comandante del centro segreto di Scienza dei Dati e AI dell’Unità 8200, Col. Yoav, nella settimana dell’Ia dell’Università di Tel Aviv nel 2023, che è stato anche riportato dai media israeliani all’epoca.

Nella lezione, il comandante parla di una nuova, sofisticata macchina in uso all’esercito israeliano che individua «persone pericolose» in base alla loro somiglianza con liste esistenti di militanti noti su cui è stata addestrata.

«Utilizzando questo sistema, siamo riusciti a identificare i comandanti delle squadre missilistiche di Hamas», ha detto Col. Yoav nella lezione, facendo riferimento all’operazione militare di maggio 2021 di Israele a Gaza, quando la macchina è stata utilizzata per la prima volta.

Le diapositive della presentazione della lezione, anch’esse ottenute da +972 e Local Call, contengono illustrazioni di come funziona la macchina: viene alimentata con dati sugli operatori di Hamas esistenti, impara a notare le loro caratteristiche e poi valuta gli altri palestinesi in base a quanto sono simili ai militanti.

«Classifichiamo i risultati e determiniamo la soglia oltre la quale attaccare un obiettivo – ha detto Col. Yoav nella lezione, sottolineando che – alla fine, sono le persone di carne e sangue a prendere le decisioni. Nel settore della difesa, eticamente parlando, poniamo molta enfasi su questo. Questi strumenti sono destinati ad aiutare gli ufficiali dell’intelligence a superare i loro ostacoli».

In pratica, tuttavia, le fonti che hanno utilizzato Lavender nei mesi recenti dicono che l’agire umano e la precisione sono stati sostituiti dalla creazione di obiettivi di massa e dalla letalità.

B., un ufficiale di alto rango che ha utilizzato Lavender, ha ribadito a +972 e Local Call che nella guerra attuale agli ufficiali non veniva richiesto di rivedere indipendentemente le valutazioni del sistema di IA, al fine di risparmiare tempo e consentire la produzione di massa di obiettivi umani senza ostacoli.

«Tutto era statistico, tutto era preciso – era molto asciutto», ha detto B. Il quale ha osservato come questa mancanza di supervisione fosse permessa nonostante i controlli interni mostrassero che i calcoli di Lavender erano considerati accurati solo il 90 percento delle volte; in altre parole, si sapeva in anticipo che il 10 percento degli obiettivi umani designati per l’assassinio non erano affatto membri del braccio militare di Hamas.

Ad esempio, le fonti hanno spiegato che Lavender a volte segnalava erroneamente individui che avevano schemi di comunicazione simili a quelli dei miliziani noti di Hamas o PIJ – inclusi poliziotti e lavoratori della difesa civile, parenti di militanti, residenti che avevano casualmente un nome e un soprannome identico a quello di un militante e gazawi che usavano un dispositivo che un tempo apparteneva a un operativo di Hamas.

«Fino a che punto una persona deve essere vicina ad Hamas per essere considerata dall’intelligenza artificiale come affiliata all’organizzazione? – ha detto una fonte critica dell’imprecisione di Lavender – È un confine vago. È un miliziano una persona che non riceve uno stipendio da Hamas, ma lo aiuta in tutto? Qualcuno che faceva parte di Hamas in passato, ma oggi non più, è un operativo? Ciascuna di queste caratteristiche – che la macchina segnalerebbe come sospette – è inesatta».

Problemi simili esistono anche relativamente alla capacità delle macchine di valutare il telefono usato da un individuo designato per l’assassinio.

«In guerra, i palestinesi cambiano telefoni tutto il tempo – ha detto la fonte – Le persone perdono i contatti con le proprie famiglie, danno il telefono a un amico o alla propria moglie, forse lo perdono. Non c’è modo di fare affidamento al 100 percento sul meccanismo automatico che determina a chi appartiene numero di telefono».

Secondo le fonti, l’esercito sapeva che la minima supervisione umana in atto non avrebbe scoperto queste imperfezioni. «Non c’era una politica di ‘zero errori’. Gli errori venivano trattati statisticamente – ha detto una fonte che ha utilizzato Lavender – A causa della portata e della grandezza dell’operazione, da protocollo anche se non hai la certezza che la macchina abbia ragione, sai che statisticamente va bene. Quindi procedi».

«Si è dimostrato efficace – ha detto B., la fonte di alto livello militare – C’è qualcosa nell’approccio statistico che ti imposta su un certo livello e standard. In questa operazione c’è stata una quantità illogica di bombardamenti. Una cosa senza precedenti, a mia memoria. E ho molta più fiducia in un meccanismo statistico che in un soldato che ha perso un amico due giorni fa. Tutti là, me compreso, hanno perso qualcuno il 7 ottobre. La macchina agisce con freddezza. E questo lo ha reso più facile».

Un’altra fonte dell’intelligence, che ha difeso il ricorso alle kill list generate da Lavender dei sospetti palestinesi, ha sostenuto che valeva la pena investire il tempo di un ufficiale di intelligence per verificare le informazioni solo se l’obiettivo era un comandante di Hamas.

«Ma quando si tratta di un militante di basso rango non è meglio non investirci tempo e lavoro» ha detto. «In guerra, non c’è tempo per determinare l’incriminazione di ogni obiettivo. Quindi sei disposto ad accettare il margine di errore, rischiare danni collaterali e morti civili, di attaccare per errore, e conviverci».

B. ha detto che il motivo di questa automazione era una costante spinta a generare più obiettivi. «In un giorno senza obiettivi (il cui punteggio ad sufficiente per autorizzare un attacco), abbiamo attaccato con una soglia inferiore. Eravamo costantemente sotto pressione: ‘Dateci più obiettivi’. Urlavano davvero contro di noi. Abbiamo finito di uccidere i nostri obiettivi molto in fretta».

E ha spiegato che abbassando la soglia di valutazione di Lavender, la macchina segnalava più persone come obiettivi da colpire. «Al suo picco, il sistema è riuscito a generare 37mila persone come potenziali obiettivi umani – ha detto B – Ma i numeri cambiavano continuamente, perché dipende da dove si imposta la barra di chi può essere considerato un militante di Hamas. Ci sono stati momenti la definizione è stata allentata, e quindi la macchina ha cominciato a prendere di mira personale della difesa civile, poliziotti, su cui sarebbe un peccato sprecare bombe. Aiutano il governo di Hamas, ma non mettono realmente a rischio i soldati».

Una fonte che ha lavorato con il team di data science dell’esercito, che ha addestrato Lavender, ha rivelato che i dati raccolti dai dipendenti del ministero della Sicurezza Interna gestito da Hamas, che lui non considera militanti, sono stati anch’essi inseriti nella macchina.

«Mi ha infastidito il fatto che quando Lavender è stato addestrato, si è impiegato il termine ‘operativo di Hamas’ in modo vago, includendo i lavoratori della difesa civile nel set di dati di addestramento», ha detto.

La fonte ha aggiunto che anche se si ritiene che queste persone meritino di essere uccise, addestrare il sistema basandosi sui loro profili di comunicazione ha reso Lavender più propenso a selezionare per errore civili quando i suoi algoritmi venivano applicati alla popolazione generale.

«Poiché è un sistema automatico che non è operato manualmente da esseri umani, il significato di questa decisione è drammatico: significa che si stanno includendo molte persone con un profilo di comunicazione civile come potenziali obiettivi».

L’esercito israeliano respinge categoricamente queste affermazioni.

In una dichiarazione a +972 e Local Call, il portavoce delle Idf ha negato l’uso dell’intelligenza artificiale per individuare obiettivi, affermando che si tratta semplicemente di «strumenti ausiliari che assistono gli ufficiali nel processo di incriminazione».

La dichiarazione prosegue: «In ogni caso, è richiesto un esame indipendente da parte di un analista dell’intelligence, che verifica che gli obiettivi identificati siano legittimi per l’attacco, in conformità con le condizioni stabilite nelle direttive delle Idf e nel diritto internazionale».

Tuttavia, le fonti hanno affermato che il protocollo di supervisione umana in atto prima di bombardare le case dei presunti militanti di basso rango segnalati da Lavender fosse riducibile a un solo controllo: assicurarsi che l’obiettivo selezionato dall’IA fosse maschio anziché femmina.

Nell’esercito regnava la convinzione che, qualora l’obiettivo fosse una donna, la macchina aveva probabilmente commesso un errore, poiché non ci sono donne tra i ranghi delle formazioni militari di Hamas e PIJ.

«Un essere umano doveva verificare l’obiettivo solo per pochi secondi»  ha detto B., spiegando che questo è diventato il protocollo dopo aver realizzato che il sistema Lavender stava «agendo correttamente» la maggior parte delle volte.

«All’inizio facevamo dei controlli per assicurarci che la macchina non si confondesse. Ma ad un certo punto ci siamo affidati al sistema automatico e abbiamo controllato solo che l’obiettivo fosse un uomo – questo era sufficiente. Non ci vuole molto tempo per capire se qualcuno ha una voce maschile o femminile».

Per effettuare il controllo maschio/femmina, B. ha affermato che nella guerra attuale «impiegavo 20 secondi per ogni obiettivo e ne facevo dozzine ogni giorno. Non avevo alcun valore aggiunto in quanto essere umano, a parte essere un timbro di approvazione. Ci ha risparmiato molto tempo. Se il miliziano veniva individuato dalla macchina e io verificavo che fosse un uomo, c’era il permesso di bombardarlo, dopo un esame dei danni collaterali».

In pratica, le fonti hanno affermato che ciò significava che per gli uomini civili segnalati erroneamente da Lavender, non c’era un meccanismo di supervisione in atto per rilevare l’errore.

Secondo B., un errore comune si verificava «se l’obiettivo di Hamas dava il telefono al figlio, al fratello maggiore o semplicemente a un uomo a caso. Quella persona sarebbe stata bombardata nella sua casa con la sua famiglia. Questo accadeva spesso. Era questa la maggior parte degli errori causati da Lavender».

2: Collegamento degli obiettivi con le case familiari

La fase successiva nella procedura di assassinio dell’esercito israeliano è individuare dove attaccare gli obiettivi generati da Lavender.

In una dichiarazione a +972 e Local Call, il portavoce delle Idf ha sostenuto, in risposta a questo articolo, che «Hamas colloca i suoi operatori e beni militari nel cuore della popolazione civile, la utilizza sistematicamente come scudo umano e conduce combattimenti da strutture civili, compresi siti sensibili come ospedali, moschee, scuole e strutture dell’Onu. Le Idf sono vincolate dal diritto internazionale, e agiscono in conformità con esso: indirizzano i propri attacchi solo contro obiettivi e operatori militari».

Le sei fonti con cui abbiamo parlato hanno in parte ribadito questo, affermando che il vasto sistema di tunnel di Hamas passa deliberatamente sotto ospedali e scuole; che i militanti di Hamas utilizzano le ambulanze per spostarsi; e che innumerevoli forniture militari sono state collocate vicino a edifici civili.

Le fonti sostengono che molti attacchi israeliani uccidono civili a causa di queste tattiche di Hamas – una caratterizzazione che evade, mettono in guardia le associazioni per i diritti umani, i doveri che Israele è tenuta a rispettare nell’infliggere delle morti.

Tuttavia, in contrasto con le dichiarazioni ufficiali dell’esercito israeliano, le fonti hanno spiegato che una delle principali ragioni per il numero di morti senza precedenti fatte dagli attuali bombardamenti israeliani va ricercata nel fatto che l’esercito ha attaccato sistematicamente gli obiettivi nelle loro case private, insieme alle loro famiglie – in parte perché era più facile da un punto di vista dell’intelligence prendere di mira le case familiari servendosi di sistemi automatizzati.

Infatti, diverse fonti hanno sottolineato che, a differenza dei numerosi casi di miliziani di Hamas impegnati in attività militari in zone civili, nel caso di omicidi sistematici l’esercito ha sistematicamente scelto di bombardare presunti militanti mentre si trovavano all’interno di case civili da cui non proveniva alcuna attività militare. Questa scelta, hanno detto, riflette il modo in cui è progettato il sistema di sorveglianza di massa di Israele a Gaza.

Le fonti hanno detto a +972 e Local Call che poiché tutti a Gaza avevano una casa privata con cui potevano essere associati, i sistemi di sorveglianza dell’esercito potevano facilmente e automaticamente “collegare” gli individui alle loro case.

Per identificare il momento in cui gli operatori entrano nelle abitazioni in tempo reale, sono stati sviluppati vari software aggiuntivi. Programmi che tracciano migliaia di individui contemporaneamente, identificano quando sono a casa e inviano un avviso automatico all’ufficiale di targeting, che poi segnala la casa per il bombardamento. Uno di questi software di tracciamento si chiama Where’s Daddy?.

«Si inseriscono centinaia di obiettivi nel sistema e si aspetta di vedere chi si può uccidere – ha detto una fonte a conoscenza del funzionamento del sistema – Si chiama caccia ampia: si copia-incolla dalle liste che il sistema di targeting produce».

Anche i dati dimostrano questa politica: durante il primo mese di guerra, più della metà delle vittime – 6.120 persone – appartenevano a 1.340 famiglie, molte delle quali sono state completamente annientate mentre si trovavano nelle loro case, secondo le cifre dell’Onu.

La proporzione di intere famiglie bombardate nelle proprie case durante la guerra in corso è molto più alta rispetto all’operazione israeliana del 2014 a Gaza (precedentemente la guerra più letale di Israele sulla Striscia), elemento che evidenzia la predominanza di questa politica.

Un’altra fonte ha detto che ogni volta che il ritmo degli assassinii diminuiva, venivano aggiunti più obiettivi ai sistemi come Where’s Daddy? per individuare individui che entravano nelle loro case e potevano quindi essere bombardati. E ha aggiunto che la decisione su chi inserire nei sistemi di tracciamento poteva essere presa da ufficiali relativamente di basso rango nella gerarchia militare.

«Un giorno, totalmente di mia iniziativa, ho aggiunto circa 1.200 nuovi obiettivi al sistema di tracciamento, perché il numero di attacchi che stavamo conducendo diminuiva – ha detto la fonte – A posteriori, mi sembra di aver preso una decisione molto rilevante. E scelte simili non sono state fatte a livelli alti».

Le fonti hanno detto che nelle prime due settimane di guerra, «diverse migliaia» di obiettivi sono stati inseriti nei programmi di localizzazione come Where’s Daddy?. Questi includevano tutti i membri dell’unità d’elite di forze speciali di Hamas, la Nukhba, tutti gli operatori anticarro di Hamas e chiunque fosse entrato in Israele il 7 ottobre. Ma presto la lista degli obiettivi è stata drasticamente ampliata.

«Alla fine erano tutti contrassegnati da Lavender – ha spiegato una fonte – Decine di migliaia. Questo è successo qualche settimana dopo, quando le forze armate israeliane sono entrate a Gaza, e c’erano già meno persone estranee ad Hamas (cioè civili) nelle aree settentrionali».

Secondo questa fonte, persino alcuni minorenni sono stati segnalati da Lavender come obiettivi . «Normalmente, i miliziani hanno più di 17 anni, ma non era una condizione».

Lavender e sistemi come Where’s Daddy? sono stati quindi combinati fra loro, con effetti letali, hanno osservato le fonti. Aggiungendo un nome dalle liste generate da Lavender al sistema di tracciamento domestico Where’s Daddy?, ha spiegato A., la persona indicata sarebbe stata posta sotto sorveglianza continua e avrebbe potuto essere attaccata non appena avesse messo piede nella propria abitazione, facendo crollare la casa su tutti al suo interno.

«Supponiamo che tu calcoli che c’è uno di Hamas con più di 10 civili in casa – ha detto A – Di solito, questi 10 saranno donne e bambini. Quindi, per assurdo, viene fuori che la maggior parte delle persone che hai ucciso erano donne e bambini».

3: Scelta dell’arma

Una volta che Lavender ha contrassegnato un bersaglio per l’assassinio, il personale dell’esercito ha verificato che fosse di sesso maschile e il software di tracciamento ha localizzato il bersaglio nella sua casa, la fase successiva è la scelta della munizione con cui bombardarlo.

Nel dicembre 2023, la Cnn ha riportato che, secondo stime dell’intelligence statunitense, circa il 45 percento delle munizioni utilizzate dalle forze aeree israeliane a Gaza erano «bombe stupide», note per causare più danni collaterali rispetto a quelle guidate.

In risposta all’articolo, un portavoce dell’esercito ha dichiarato: «Come militari impegnati a rispettare il diritto internazionale e con un codice morale di condotta, stiamo dedicando vaste risorse per minimizzare i danni ai civili che Hamas ha costretto a fare da scudi umani. La nostra guerra è contro Hamas, non contro il popolo di Gaza».

Tuttavia, tre fonti dell’intelligence, hanno riferito a +972 e Local Call che i giovani operativi contrassegnati da Lavender venivano uccisi solo con bombe stupide, con lo scopo di risparmiare armamenti più costosi.

L’implicazione, ha spiegato una fonte, era che l’esercito non avrebbe colpito un bersaglio di basso rango se viveva in un edificio alto, perché l’esercito non voleva spendere una floor bomb più precisa e costosa (con un effetto collaterale più limitato) per ucciderlo. Ma se un bersaglio di basso rango viveva in un edificio di pochi piani, l’esercito era autorizzato ad ucciderlo insieme a tutti gli occupanti dell’edificio con una bomba stupida.

«Così era con tutti i bersagli di rango inferiore – ha testimoniato C., che ha utilizzato vari programmi automatizzati durante la guerra in corso – L’unica domanda era se fosse possibile attaccare l’edificio in termini di danni collaterali. Perché di solito portavamo a termine gli attacchi con bombe stupide, e questo significava letteralmente distruggere l’intera casa insieme ai suoi occupanti. Ma anche se un attacco viene evitato, non ti interessa: passi immediatamente al prossimo bersaglio. A causa del sistema, i bersagli non finiscono mai. Hai altri 36mila in attesa».

4: Autorizzazione delle vittime civili

Una fonte ha affermato che, nell’attaccare gli agenti di rango inferiore, inclusi quelli identificati dai sistemi di IA come Lavender, il numero di civili che potevano essere uccisi insieme a ogni obiettivo era fissato durante le prime settimane di guerra fino a un massimo di 20.

Un’altra fonte ha sostenuto che il numero fisso fosse 15. Questi «livelli di danni collaterali», come li chiama l’esercito, sono stati applicati ampiamente a tutti i presunti militanti junior, hanno detto le fonti, indipendentemente dal loro grado, importanza militare e età, e senza una specifica valutazione caso per caso che valutasse il vantaggio militare di assassinarli a fronte del danno per i civili.

Secondo A., il dipartimento per il diritto internazionale dell’esercito non ha mai dato una simile «approvazione generale» per un livello così alto di danni collaterali. «Non si può solo uccidere chiunque sia un soldato di Hamas, il che è chiaramente permesso e legittimo in termini di diritto internazionale – ha detto A – Ma ti dicono direttamente: ‘Puoi ucciderli insieme a molti civili.’ Ogni persona che ha indossato una divisa di Hamas nell’ultimo anno o due poteva essere bombardata insieme a 20 civili assassinati come danni collaterali, anche senza un permesso speciale. In pratica, il principio di proporzionalità non esisteva».

Secondo A., questa era la politica per la maggior parte del tempo in cui ha prestato servizio. Solo in seguito l’esercito ha abbassato il grado di danni collaterali. «Sulla base di questo calcolo, potevano venire uccisi 20 bambini per un operativo di rango inferiore. Non era così in passato». Quando gli è stato chiesto quale fosse l’obiettivo di sicurezza dietro questa politica, A. ha risposto: «Letalità».

Il grado di danni collaterali predeterminato e fisso ha contribuito ad accelerare la creazione di massa di obiettivi servendosi di Lavender, hanno detto le fonti, perché ha consentito di risparmiare tempo. B. sostiene che il numero di civili che era permesso uccidere nella prima settimana di guerra per ogni presunto militante junior individuato dalla IA era quindici, ma che questo numero è «aumentato e diminuito» nel tempo.

«In principio abbiamo attaccato quasi senza considerare i danni collaterali – ha detto B. della prima settimana dopo il 7 ottobre – In pratica, non contavi davvero le persone in ogni casa che veniva bombardata, perché non potevi davvero sapere se fossero a casa o meno. Dopo una settimana, hanno cominciato a esserci restrizioni sui danni collaterali. Il numero è sceso a cinque, il che rendeva davvero difficile per noi attaccare, perché se tutta la famiglia era a casa, non potevamo bombardarla. Poi hanno alzato nuovamente il numero».

Le fonti hanno detto a +972 e Local Call che ora, in parte a causa della pressione americana, l’esercito israeliano non sta più generando in massa obiettivi umani di rango inferiore che comportino il bombardamento di case civili.

Il fatto che la maggior parte delle case nella Striscia di Gaza sia già stata distrutta o danneggiata e che quasi l’intera popolazione sia stata sfollata ha anche compromesso la capacità dell’esercito di fare affidamento su database di intelligence e programmi automatizzati di localizzazione delle case.

E. ha sostenuto che i bombardamenti massicci di militanti junior sono avvenuti solo nella prima settimana o due della guerra e poi sono stati interrotti principalmente per non sprecare bombe.

«C’è un’economia delle munizioni – ha detto E – Hanno sempre paura che ci sia una guerra a nord (con Hezbollah in Libano). Non attaccano più questo tipo di persone».

Tuttavia, gli attacchi aerei contro i comandanti di alto rango di Hamas sono ancora in corso, e le fonti hanno detto che in questi casi l’esercito sta autorizzando l’uccisione di «centinaia» di civili per obiettivo – una politica ufficiale per la quale non esiste alcun precedente storico in Israele, o anche nelle recenti operazioni militari degli Stati Uniti.

«Nel bombardamento del comandante del battaglione di Shuja’iya, sapevamo che avremmo ucciso oltre 100 civili». B. ha sta parlando di un attacco del 2 dicembre che il portavoce delle Idf ha detto essere mirato all’omicidio di Wisam Farhat. «Per me, psicologicamente, era insolito. Oltre 100 civili – supera una certa linea rossa».

Amjad Al-Sheikh, un giovane palestinese di Gaza, ha detto che molti membri della sua famiglia sono stati uccisi in quel bombardamento. Residente a Shuja’iya, a est di Gaza City, quel giorno si trovava in un supermercato locale quando ha sentito cinque esplosioni che hanno infranto le finestre di vetro.

«Sono corso a casa, ma non c’era più nulla – ha detto Al-Sheikh a +972 e Local Call – La strada era piena di urla e fumo. Intere file di case residenziali si sono trasformate in montagne di macerie e voragini profonde. Le persone hanno iniziato a cercare nel cemento, usando le mani, e così ho fatto anch’io, cercando segni della casa della mia famiglia».

La moglie e la figlia neonata di Al-Sheikh sono sopravvissute – protette dalle macerie da un armadio che è caduto sopra di loro – ma ha lui trovato altri 11 membri della sua famiglia, tra cui le sue sorelle, i fratelli e i loro bambini, morti sotto le macerie.

Secondo il gruppo per i diritti umani B’Tselem, il bombardamento di quel giorno ha distrutto dozzine di edifici, ucciso decine di persone e sepolto centinaia sotto le rovine delle loro case.

Le fonti di intelligence hanno detto a +972 e Local Call di aver preso parte a attacchi ancora più letali. Una fonte ha detto che per assassinare Ayman Nofal, il comandante della Brigata Centrale di Gaza di Hamas, l’esercito ha autorizzato l’uccisione di circa 300 civili, distruggendo diversi edifici negli attacchi aerei sul campo profughi di Al-Bureij il 17 ottobre, basandosi su una localizzazione imprecisa di Nofal.

Le immagini satellitari e i video della scena mostrano la distruzione di diversi grandi edifici residenziali a più piani.

«Tra 16 e 18 case sono state spazzate via nell’attacco – ha detto Amro Al-Khatib, residente del campo, a +972 e Local Call – Non potevamo distinguere un appartamento dall’altro – si sono tutti mischiati nelle macerie, e abbiamo trovato parti di cadaveri ovunque».

Nel caos, Al-Khatib ha ricordato che circa 50 corpi senza sono stati tirati fuori dalle macerie insieme a circa 200 persone ferite, molte delle quali gravemente. Ma era solo il primo giorno. I residenti del campo hanno passato cinque giorni a tirare fuori dalle macerie morti e feriti

Nael Al-Bahisi, un paramedico, è stato uno dei primi ad accorrere sul posto. Ha contato tra i 50 e i 70 feriti quel primo giorno. «In un certo momento, abbiamo capito che l’obiettivo dell’attacco era il comandante di Hamas Ayman Nofal – ha detto a +972 e Local Call – Lo hanno ucciso, insieme a molte persone che non sapevano che fosse lì. Intere famiglie con bambini sono state uccise».

Un’altra fonte di intelligence ha detto a +972 e Local Call che l’esercito ha distrutto un edificio residenziale a Rafah a metà dicembre, uccidendo «dozzine di civili» per cercare di uccidere Mohammed Shabaneh, il comandante della Brigata Rafah di Hamas (non è chiaro se sia morto nell’attacco). Spesso, ha detto la fonte, i comandanti di alto livello si nascondono nei tunnel che passano sotto gli edifici civili, e quindi la scelta di assassinarli con un attacco aereo uccide necessariamente civili.

«La maggior parte dei feriti erano bambini», ha detto Wael Al-Sir, 55 anni, che ha assistito al massiccio bombardamento che alcuni gazawi ritengono essere stato il tentativo di assassinio. Ha riferito a +972 e Local Call che l’attacco del 20 dicembre ha distrutto un «intero isolato residenziale» e ha ucciso almeno 10 bambini.

«C’era una politica completamente permissiva riguardo alle vittime delle operazioni – così permissiva che a mio avviso conteneva un elemento di vendetta – ha sostenuto D., una fonte di intelligence – Al cuore di questa politica c’era l’ assassinio dei comandanti senior, per i quali erano disposti a uccidere centinaia di civili. Avevamo un calcolo: quanti per un comandante di brigata, quanti per un comandante di battaglione e così via».

«C’erano regolamenti, ma erano molto permissivi – ha detto E., un’altra fonte di intelligence – Abbiamo ucciso persone con danni collaterali nelle parti alte della doppia cifra, se in quelle basse delle tre cifre. Cose così non sono mai accadute prima».

Un tasso così alto di «danni collaterali» è eccezionale non solo rispetto a quello che l’esercito considerava accettabile in precedenza, ma anche rispetto alle guerre condotte dagli Stati Uniti in Iraq, Siria e Afghanistan.

Il generale Peter Gersten, vicecomandante per le Operazioni e l’Intelligence nell’operazione per combattere l’Isis in Iraq e Siria, ha detto a una rivista della Difesa Usa che nel 2021 un attacco con danni collaterali di 15 civili si discostava dalla procedura; per portarlo a termine, doveva ottenere un permesso speciale dal capo del Central Command degli Stati Uniti, il generale Lloyd Austin, che è ora segretario della Difesa.

«Con Osama Bin Laden, avresti un Ncv (Valore delle Vittime Non Combattenti) di 30, ma in presenza di un comandante di basso livello, il suo NCV era tipicamente zero», ha detto Gersten. «Abbiamo mantenuto lo zero per la maggior parte del tempo».

Tutte le fonti intervistate per questa indagine hanno detto che i massacri di Hamas del 7 ottobre e il rapimento degli ostaggi hanno influenzato notevolmente la politica di fuoco dell’esercito e i livelli accettati di danni collaterali. «All’inizio, l’atmosfera era dolorosa e vendicativa –  ha detto B., che è stato arruolato subito dopo il 7 ottobre – Le regole erano molto permissive. Hanno abbattuto quattro edifici quando sapevano che l’obiettivo era in uno di essi. Era pazzesco».

«C’era una dissonanza: da una parte, la gente qui era frustrata perché non stavamo attaccando abbastanza – ha continuato B – Dall’altra parte, alla fine della giornata vedi che altre mille persone a Gaza sono morte, la maggior parte civili». «C’era isteria nei ranghi professionali – ha detto D., anche lui arruolato subito dopo il 7 ottobre – Non avevano idea di come reagire. L’unica cosa che sapevano fare era bombardare come pazzi per cercare di smantellare le capacità di Hamas».

D. ha sottolineato che non gli è stato detto esplicitamente che l’obiettivo dell’esercito era la «vendetta», ma ha osservato che «non appena ogni obiettivo collegato a Hamas diventa legittimo, e con quasi ogni danno collaterale che viene approvato, ti è chiaro che migliaia di persone verranno uccise. Anche se ufficialmente ogni obiettivo è collegato a Hamas, quando la politica è così permissiva, perde ogni significato».

Anche A. ha usato la parola «vendetta» per descrivere l’atmosfera dentro l’esercito dopo il 7 ottobre. «Nessuno ha pensato a cosa fare dopo, a guerra finita, o come sarà possibile vivere a Gaza e cosa ne faranno – ha detto A – Ci è stato detto: ora dobbiamo rovinare Hamas, a qualunque costo. Bombarda tutto ciò che puoi».

B., la fonte di intelligence senior, ha detto di credere in retrospettiva che questa politica «sproporzionata» nell’uccisione dei palestinesi a Gaza metta anche in pericolo gli israeliani, e che questo è uno dei motivi per cui ha deciso di essere intervistato.

«A breve termine, siamo più sicuri, perché abbiamo ferito Hamas. Ma penso che lo siamo di meno a lungo termine. Vedo come tutte le famiglie colpite a Gaza – quasi tutti – saranno più motivati a unirsi a Hamas tra 10 anni. E sarà molto più facile reclutarli».

In una dichiarazione a +972 e Local Call, l’esercito israeliano ha negato gran parte di ciò che le fonti ci hanno detto, sostenendo che «ogni obiettivo viene esaminato individualmente, mentre viene effettuata una valutazione individuale del vantaggio militare e dei danni collaterali che ci si aspetta dall’attacco … Le Idf non effettuano attacchi quando i danni collaterali eccedono il vantaggio militare».

5: Calcolo dei danni collaterali

Secondo le fonti dell’intelligence, il calcolo dell’esercito israeliano del numero di civili che si prevedeva sarebbero stati uccisi in ogni casa insieme a un obiettivo – una procedura esaminata in un’indagine precedente di +972 e Local Call – è stato condotto con l’aiuto di strumenti automatici e imprecisi.

Nelle guerre precedenti, il personale di intelligence passava molto tempo a verificare quante persone si trovavano in una casa che doveva essere bombardata, con il numero di civili suscettibili di essere uccisi elencati in un “file di obiettivo.” Dopo il 7 ottobre, tuttavia, questa verifica accurata è stata in gran parte abbandonata a favore dell’automazione.

In ottobre, il New York Times ha riferito di un sistema operato da una base speciale nel sud di Israele, che raccoglie informazioni dai telefoni cellulari nella Striscia di Gaza e ha fornito all’esercito una stima in tempo reale del numero di palestinesi che sono fuggiti dalla parte settentrionale della Striscia di Gaza verso sud.

Il generale di brigata Udi Ben Muha ha detto al Times che «non è un sistema perfetto al 100 percento – ma ti fornisce le informazioni di cui hai bisogno per prendere una decisione». Il sistema funziona in base ai colori: il rosso segna le aree dove ci sono molte persone, e il verde e il giallo segnano le aree che sono state relativamente sgomberate dai residenti.

Le fonti che hanno parlato a +972 e Local Call hanno descritto un sistema simile per calcolare i danni collaterali, che è stato utilizzato per decidere se bombardare un edificio a Gaza. Hanno detto che il software calcolava il numero di civili residenti in ogni casa prima della guerra – valutando le dimensioni dell’edificio e rivedendo l’elenco dei residenti – e poi riduceva quei numeri in base alla proporzione di residenti che presumibilmente sarebbero evacuati.

Per esempio, se l’esercito stimava che metà dei residenti di un quartiere se ne fosse andata, il programma avrebbe conteggiato una casa che di solito aveva 10 residenti come una casa contenente cinque persone.

Per risparmiare tempo, hanno detto le fonti, l’esercito non ha sorvegliato le case per controllare quante persone vi abitavano effettivamente, come faceva nelle operazioni precedenti, per scoprire se l’elaborazione del programma fosse effettivamente accurata.

«Questo modello non era collegato alla realtà – ha affermato una fonte – Non c’era tempo per confermare se le persone erano davvero andate via». Le fonti hanno detto che il sistema era talvolta così impreciso che i comandanti non sapevano se sarebbero stati i civili a costituire il danno collaterale dell’attacco, o i combattenti che non erano stati ancora individuati. In altre parole, non sapevano se stavano per uccidere i civili o i militanti.

In effetti, il sistema era talmente imperfetto che in una certa occasione, le fonti hanno detto, un’intera famiglia – che presumibilmente era stata identificata come evacuata – è stata uccisa. «Era chiaro che il sistema non funzionava – ha detto una fonte – Ma hanno detto che avremmo dovuto continuare a usarlo».

La fuga dei residenti dalla Striscia di Gaza all’inizio della guerra ha confuso il calcolo dei danni collaterali, hanno detto le fonti. Le persone fuggivano dalle loro case in cerca di sicurezza nel centro di Gaza, dove si ritrovavano con altre famiglie. Questo ha causato problemi nell’effettuare il calcolo del numero di persone che si trovavano ancora sul percorso di un attacco aereo.

Una fonte ha affermato che, poiché c’erano molte case abitate da persone provenienti da altre parti della Striscia di Gaza, si riteneva che si trattasse di abitazioni vuote. «Se i residenti fossero lì, sarebbero stati evacuati – ha detto la fonte – Questo era il principio di base del calcolo dei danni collaterali».

Per tutto il mese di guerra, sostengono le fonti, l’esercito non ha implementato correttamente i criteri di rilevamento delle case abitate. Non sorprende che, secondo una fonte, ciò abbia portato a un calcolo «abbastanza arbitrario» dei danni collaterali, che includeva il bombardamento di case con bambini al loro interno.

Una fonte ha suggerito che l’esercito avrebbe potuto evitare di bombardare alcune delle case che si sapevano essere abitate, sebbene i leader militari si sentissero in obbligo di continuare a bombardare. «Se un comandante di brigata diceva: ‘Ho bisogno di cinque obiettivi per la mia brigata,’ il computer suggeriva cinque obiettivi in cui sarebbe stato ucciso un certo numero di persone, e questo è ciò che bombardavamo», ha detto la fonte.

Nella seconda settimana di guerra, ha detto B., l’esercito ha cercato di affinare il software che usava per calcolare i danni collaterali, ma anche questa versione era piena di errori. «Non si può bombardare un’area in cui ci sono 15 persone, quindi il computer te ne dava una con otto».

Nel corso della guerra, ha detto B., l’esercito ha tentato di «migliorare il sistema di calcolo dei danni collaterali più e più volte», ma ogni nuova iterazione era comunque imperfetta. «Il modello non è mai stato collegato alla realtà».

6: Bombardamento di una casa familiare

Le fonti che hanno parlato con +972 e Local Call hanno spiegato che a volte c’era una sostanziale differenza tra il momento in cui i sistemi di tracciamento come Where’s Daddy? avvisavano un ufficiale che un obiettivo era entrato nella propria casa e il bombardamento stesso, che portava alla morte di intere famiglie anche senza colpire l’obiettivo stesso.

«È successo molte volte che abbiamo attaccato una casa, ma il target non era nemmeno lì – ha detto una fonte – Il risultato è che hai ucciso una famiglia senza motivo».

Tre fonti di intelligence hanno detto a +972 e Local Call di aver assistito a un incidente in cui l’esercito israeliano ha bombardato la casa privata di una famiglia, e in seguito si è scoperto che l’obiettivo previsto dell’assassinio non era nemmeno all’interno , dal momento che non è stata effettuata alcuna verifica ulteriore in tempo reale.

«A volte l’obiettivo era a casa in precedenza, e poi di notte andava a dormire da qualche altra parte, diciamo sottoterra, e tu non lo sapevi – ha detto una delle fonti – Ci sono momenti in cui controlli due volte la posizione, e ci sono momenti in cui dici semplicemente, ‘Ok, era in casa nelle ultime ore, quindi si può bombardare’».

Un’altra fonte ha descritto un incidente simile che lo ha colpito e lo ha convinto a farsi intervistare per questa indagine. «Abbiamo capito che l’obiettivo era a casa alle 8 di sera. Alla fine, l’aeronautica ha bombardato la casa alle 3 di mattina. Poi abbiamo scoperto che in quel lasso di tempo era riuscito a trasferirsi in un’altra casa con la sua famiglia. Abbiamo bombardato altre due famiglie con i loro bambini in quell’edificio»

Nelle guerre precedenti a Gaza, dopo l’assassinio degli obiettivi umani, l’intelligence israeliana eseguiva procedure di valutazione dei danni da bomba (BDA) – un controllo post-attacco di routine per verificare se il comandante di alto rango era stato ucciso e quanti civili erano morti insieme a lui. Come rivelato in un’indagine precedente di +972 e Local Call, questo prevedeva l’ascolto delle telefonate dei parenti che avevano perso i loro cari.

Nella guerra attuale, tuttavia, almeno in relazione ai militanti di basso rango sospettati di far parte di Hamas e PIJ segnati dall’IA, le fonti dicono che questa procedura è stata abolita per risparmiare tempo. E aggiungono di non sapere quanti civili sono stati effettivamente uccisi in ogni attacco, per quanto riguarda i sospetti militanti di basso rango di Hamas e PIJ, non sapevano nemmeno se l’obiettivo stesso fosse stato ucciso.

«Non sai esattamente quante persone hai ucciso e chi – ha detto una fonte di intelligence a Local Call per una precedente indagine pubblicata a gennaio – Solo quando si tratta di dirigenti di Hamas si segue la procedura BDA. Negli altri casi, non ti interessa. Ricevi un rapporto dall’aeronautica se l’edificio è stato fatto saltare, e basta. Non hai idea di quanta sia la distruzione collaterale; passi immediatamente al prossimo obiettivo. L’enfasi era creare il maggior numero di obiettivi possibile, il più rapidamente possibile».

Ma mentre l’esercito israeliano può passare oltre senza soffermarsi sul numero delle vittime, Amjad Al-Sheikh, il residente di Shuja’iya che ha perso 11 membri della sua famiglia nel bombardamento del 2 dicembre, ha detto che lui e i suoi vicini stanno ancora cercando i corpi.

«Ancora adesso, ci sono corpi sotto le macerie – ha detto – Quattordici edifici residenziali sono stati bombardati con i loro residenti dentro. Alcuni dei miei parenti e vicini sono ancora sepolti».

l’inchiesta dei siti di informazione israeliani +972 e Local Call – da il manifesto

- © Riproduzione possibile DIETRO ESPLICITO CONSENSO della REDAZIONE di CONTROPIANO

Ultima modifica: stampa

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *