Riconoscimento facciale in tempo reale, interpretazione delle emozioni, categorizzazione dei pensieri religiosi, sessuali e politici… La Francia ha attivamente spinto affinché queste pratiche fossero autorizzate dall’«AI Act», il regolamento europeo sull’intelligenza artificiale, come rivelano Disclose e Investigate Europe attraverso documenti confidenziali.
Immaginate di partecipare a una manifestazione per il clima, indossando un distintivo o mostrando un cartello. Una telecamera “intelligente” rileva questi segnali, registra il vostro volto e trasmette le immagini alla polizia per confrontarle con un database di persone ricercate per crimini ambientali. Anche se non comparite in quel database, i dati restano archiviati. Oppure pensate a un naufrago appena sbarcato sull’isola di Lampedusa. Fermato, viene interrogato con una telecamera in grado di rilevare emozioni. Il sistema registra segni di nervosismo, paura o indecisione e conclude che il migrante mente sulla sua età o origine. La sua richiesta di asilo viene respinta.
Questi scenari, che sembrano usciti da un film di fantascienza, potrebbero diventare realtà nelle prossime settimane. Il 2 febbraio entreranno in vigore gli articoli più controversi — definiti “rischi inaccettabili” — del regolamento europeo sull’intelligenza artificiale (IA), aprendo una serie di porte alla possibilità di controllare gli spazi pubblici. Eppure, il regolamento avrebbe dovuto regolamentare l’uso dell’intelligenza artificiale per proteggerci dalle minacce ai diritti fondamentali e alle libertà pubbliche in Europa. Tuttavia, dopo due anni di negoziati segreti tra gli Stati europei, questo quadro è stato smantellato dalle pressioni della Francia, che ha ottenuto esenzioni significative imponendo il tema della “sicurezza nazionale”.
Questo emerge dall’analisi di un centinaio di documenti riservati sull’AI Act, ottenuti da Disclose e Investigate Europe. I resoconti delle negoziazioni rivelano come Parigi sia riuscita ad aprire una breccia per consentire la sorveglianza di massa negli spazi pubblici.
La “linea rossa” della sicurezza nazionale
Il lobbying della Francia inizia alla fine del 2022. In quel momento, i dibattiti sul progetto della Commissione europea, avviato nell’aprile 2021, sono particolarmente tesi. Al centro delle discussioni tra i 27 Paesi dell’UE vi è la classificazione dei rischi legati all’uso dell’IA. Parigi si oppone fin da subito all’idea che la futura legge europea vieti alcune tecnologie particolarmente invasive, considerate “rischi inaccettabili” per le libertà pubbliche.
Il 18 novembre 2022, durante una riunione a porte chiuse con i suoi omologhi europei, il rappresentante francese dichiara, secondo un resoconto in possesso delle due testate: «L’esclusione delle questioni di sicurezza e difesa [dal quadro del regolamento]… deve essere mantenuta a tutti i costi». Con questa richiesta, la Francia vuole mantenere la possibilità di utilizzare il riconoscimento facciale in tempo reale negli spazi pubblici, in caso di rischio per la sicurezza nazionale. Lo stesso vale per il mantenimento dell’ordine pubblico. Una fonte coinvolta nei negoziati conferma: «La Francia considera l’ordine pubblico parte della sicurezza nazionale; per questo ha richiesto che tutti gli aspetti del mantenimento dell’ordine siano esclusi dal regolamento. È l’unico Paese ad aver chiesto questa esclusione totale».
Manifestanti accusati di disturbare l’ordine pubblico potrebbero così diventare bersagli legali del riconoscimento facciale. Il governo francese e i suoi rappresentanti a Bruxelles, interpellati più volte, non hanno risposto alle domande di Disclose e Investigate Europe.
Matignon in prima linea
L’attivismo della Francia a favore di tecnologie altamente invasive è confermato da una lettera inviata, a fine novembre 2023, al Segretariato del Consiglio dell’UE. Questo documento, ottenuto dalle due testate, è firmato dal Segretariato Generale degli Affari Europei (SGAE), un servizio sotto l’autorità di Matignon e responsabile del coordinamento interministeriale per le politiche europee. Il testo ribadisce la “linea rossa” della Francia sulla sicurezza nazionale e insiste per poter utilizzare l’IA negli spazi pubblici “in caso di emergenza giustificata”.
Gli sforzi della Francia sono stati premiati. L’articolo 2.3 dell’AI Act afferma infatti che «il presente regolamento (…) non pregiudica le competenze degli Stati membri in materia di sicurezza nazionale». Secondo Aljosa Ajanovic, membro dell’EDRI, un’organizzazione per la difesa dei diritti dei cittadini europei, questo principio «permette di introdurre sistemi di sorveglianza biometrica di massa che rischiano di influenzare pesantemente le nostre libertà di movimento, di riunione, di espressione, oltre che la nostra privacy».
L’articolo 46, paragrafo 2 del regolamento europeo specifica inoltre che «in una situazione di emergenza debitamente giustificata per ragioni eccezionali di sicurezza pubblica (…) le autorità di polizia» possono utilizzare «un servizio di IA ad alto rischio specifico», senza previa autorizzazione.
Appartenenza religiosa e politica
Se uno Stato ritiene che la sua sicurezza sia a rischio, potrà anche cercare una persona sulla base della “razza, opinioni politiche, affiliazione sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale”, grazie alla scienza algoritmica. Una grave minaccia alle libertà pubbliche e ai diritti civili, come emerge da un passaggio della lettera del Segretariato Generale agli Affari Europei. In esso si sottolinea che la Francia ritiene «molto importante preservare la possibilità di cercare una persona sulla base di criteri oggettivi che esprimano una convinzione religiosa o un’opinione politica».
Un badge di un movimento ambientalista classificato come “estremista e violento” potrebbe quindi giustificare l’attivazione di telecamere alimentate dall’intelligenza artificiale.
«È agghiacciante vedere l’UE consentire alle sue polizie di utilizzare questi sistemi per tentare di rilevare l’orientamento sessuale», si indigna Félix Tréguer, autore di Technopolice, la sorveglianza poliziesca nell’era dell’IA e portavoce della Quadrature du Net, un’associazione francese per la difesa delle libertà digitali. «Anche questa è l’intelligenza artificiale», prosegue, «il ritorno di teorie naturalizzanti, pseudoscienze e categorie arbitrarie, ora integrate in potenti sistemi automatizzati per attuare la violenza di Stato».
*****
«La maggior parte delle volte, le persone non sapranno di essere state sorvegliate »
Sarah Chander, cofondatrice dell’ONG Equinox
Durante le discussioni sull’AI Act, la Francia ha posto altre due “linee rosse”. Parigi ha infatti richiesto che le prigioni e le aree di controllo alle frontiere fossero « escluse dalla definizione di spazio pubblico », come emerge dal resoconto di una riunione del novembre 2023. Anche in questo caso, insieme a Paesi come la Grecia, la Francia è riuscita a ottenere ciò che voleva.
Tra poche settimane, gli Stati membri potranno quindi implementare sistemi di riconoscimento delle emozioni alle loro frontiere. Si tratta di software che, collegati a una telecamera, potranno essere utilizzati durante interrogatori di persone migranti. L’obiettivo sarà, ad esempio, quello di valutare — con un grado di affidabilità più o meno alto — il loro livello di nervosismo o ansia, per capire se mentono sul loro Paese di origine, sull’età o sulle ragioni che li hanno spinti a partire. « Ciò che è subdolo nell’uso dell’intelligenza artificiale da parte della polizia e nei controlli migratori è che, la maggior parte delle volte, le persone non sapranno di essere state sorvegliate da questi sistemi », denuncia Sarah Chander, cofondatrice di Equinox, un’ONG che combatte le discriminazioni razziali in Europa.
Dietro l’attivismo della Francia si cela infine il desiderio di lasciare maggiore libertà di azione all’industria europea dell’intelligenza artificiale. Lo lascia intendere il rappresentante francese durante una riunione del 15 novembre 2023: « bisogna mettere in guardia con urgenza contro gli impatti negativi [che potrebbe avere il regolamento] sulla capacità di innovazione dell’UE », dichiara. Insiste, aggiungendo che c’è il rischio che « le aziende trasferiscano le loro attività in regioni dove i diritti fondamentali non hanno alcun peso ».
Un mese dopo, Emmanuel Macron riprende lo stesso argomento. Secondo il presidente francese, regolamentando « molto più velocemente e molto più severamente rispetto ai nostri principali concorrenti, finirà che regoleremo cose che non produrremo più o che non inventeremo ». A Bruxelles, molti interpretano queste dichiarazioni come un sostegno neanche troppo velato a una punta di diamante della “start-up nation” francese: Mistral AI.
Questa società francese annovera tra i suoi azionisti Cédric O, stretto collaboratore di Macron ed ex segretario di Stato per il digitale. È lui che si occupa anche delle relazioni pubbliche dell’azienda, il cui cofondatore, un anno fa, dichiarava: « Nella sua forma finale, l’AI Act è perfettamente gestibile per noi ».
* da Investigate Europe
- © Riproduzione possibile DIETRO ESPLICITO CONSENSO della REDAZIONE di CONTROPIANO
Ultima modifica: stampa