Dall’esplosione di ChatGPT nel dicembre 2022, passato il primo momento di ubriacatura, hanno cominciato a sorgere voci critiche.
Verso le reali potenzialità dell’intelligenza artificiale (Ai) e verso la narrazione stessa di questa tecnologia promossa dalle Big Tech, ossia le aziende che ne detengono lo sviluppo e la commercializzazione, a partire alla ormai celeberrima OpenAi (di fatto una sussidiaria di Microsoft, soprattutto dopo gli ultimi “aggiustamenti” nell’organismo che la controlla, seguiti al licenziamento e al successivo rientro da vincitore di Sam Altman, di cui abbiamo scritto qui).
Il dibattito, per fortuna, è ricco. Curiosamente, ma in modo tutto meno che sorprendente, le prime voci a sollevarsi, nel mondo anglosassone, sono state quelle di tre donne: Timnit Gebru, Emily Bender e Meredith Whittaker.
Grazie a una ricerca della prima abbiamo scoperto che le Ai per il riconoscimento facciale sbagliano statisticamente molto di più nel riconoscere i tratti somatici delle minoranze etniche, e quando ha posto seriamente il problema dei rischi di queste tecnologie è stata licenziata in tronco da Google.
La seconda è co-autrice dell’articolo “incriminato” nonché colei che ha etichettato i Large language model (LLM) con il termine “pappagalli stocastici”, per sottolineare come questi software realizzino il divorzio tra segno e significato.
La terza attualmente lavora per Signal, uno dei software di chat criptati più sicuri al mondo, posizione a cui è giunta dopo essere stata costretta a lasciare Google per via del suo attivismo sindacale, nonché delle sue critiche nel campo della cosiddetta “etica dell’Ai”.
In Italia le migliori analisi recenti sono quelle contenute nel lavoro di Vivien Garcia e Carlo Milani, che esplora con precisione chirurgica il modo in cui i sistemi automatizzati diffondono il condizionamento reciproco tra umani e macchine; e quelle della professoressa Daniela Tafani, due assoluti “must read“ per chiunque voglia capire quali siano le principali mistificazioni che stanno alla base dell’Ai odierna.
Ma c’è un secondo livello a cui si presenta la mistificazione, che riguarda in particolare gli LLM: l’output di questi modelli mistifica la realtà. Mi riferisco al fatto che questo software, anche se opportunamente ottimizzato sotto la supervisione umana per rispondere accuratamente, spesso produce output spazzatura.
Gli entusiasti dell’Ai chiamano questo tipo di risultato “allucinazioni”, ma questa etichetta è fuorviante (ossia “allontana dal vero”). L’allucinazione è una percezione distorta della realtà, in psichiatria definita “percezione in assenza di stimolo”.
Come ho spiegato nel mio libro, un LLM non ha alcuna percezione della realtà che possa “andare in crisi” generando percezioni distorte analoghe alle allucinazioni di un essere umano. Per questo diversi autori preferiscono dire che “le spara grosse” (il termine inglese suona più duro: bullshitting), un po’ come uno studente interrogato che inventa notizie e personaggi storici per non fare scena muta (trovate gli articoli a cui mi riferisco qui e qui).
Non solo, i LLM abbassano in maniera impressionante il costo della creazione di campagne di marketing, propaganda o – più in generale – di qualsiasi testo che non debba essere di particolare complessità e originalità. Per questo si presentano come poderosi strumenti di manipolazione dell’informazione. Questi utilizzi degli LLM, reiterati lungo il tempo e uniti all’eccessiva fiducia che nutriamo socialmente verso il loro output, stanno generando diversi effetti di inquinamento della cosiddetta “infosfera”.
A iniziare dai contenuti (esplosione dei contenuti spazzatura prodotti da LLM); in particolare a scopi di propaganda politica ed elettorale; dei dati personali (creazione di informazioni false su persone vere); della produzione accademica (ricercatori, magari spinti dalle urgenze del “publish or perish” che utilizzano i chatbot per scrivere articoli, che vengono sottoposti a peer-review “automatizzate” utilizzando altri chatbot, creando un clima di generale crescita della sfiducia anche verso le pubblicazioni scientifiche).
Se la narrazione mistificata dell’hype è correggibile (con un enorme sforzo collettivo) la tendenza dei LLM a “spararle grosse” non potrà essere “corretta” per il semplice fatto che non è un comportamento erroneo, bensì la forma di funzionamento “naturale” dei modelli.
La questione si comprende meglio se capiamo che l’output di questi modelli non è costruito come una risposta alle nostre domande, ma come un tentativo di costruire una frase che probabilmente avrà senso per un essere umano, sulla base del contesto che l’utente ci fornisce con il suo prompt. In pratica, se il contesto è “Che cosa ha causato la sconfitta di Caporetto?”, l’output potrà partire con le parole “La sconfitta di Caporetto fu causata da…”.
La maggiore o minore aderenza al contesto è addirittura un parametro di funzionamento dei LLM, che viene chiamato “temperatura”. Alte temperature causano più bullshit di quelle basse. Insomma: mentre per rispondere bisogna comprendere, per generare statisticamente frasi che hanno alta probabilità di avere senso compiuto basta non “allontanarsi troppo” dal contesto fornito dall’utente.
Questo fatto rende i LLM del tutto inutilizzabili? Forse no, ma certamente ne limita grandemente l’utilità e dovrebbe spingerci a una cautela di molto superiore a quella che si registra di questi tempi nel loro utilizzo, soprattutto alla luce degli utilizzi nefasti che ne possono essere fatti.
* da AltraEconomia. Stefano Borroni Barale (1972) è laureato in Fisica teorica presso l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel programma di formazione sindacale Actrav del Centro internazionale di formazione dell’Ilo.
- © Riproduzione possibile DIETRO ESPLICITO CONSENSO della REDAZIONE di CONTROPIANO
Ultima modifica: stampa