Usare la voce di una donna in un robot per “manipolare” l’opinione pubblica è una tattica presente fin dai racconti di Asimov (vedi “Intuito femminile”). L’idea che gli umani trattino i computer con voce femminile in modo diverso rispetto a quelli con voce maschile è trattata già in un noto studio di metà degli anni ‘90, The Media Equation.
Mentre gli effetti psicologici indotti sugli umani anche da un chatbot primitivo e non certo “intelligente” sono stati sviscerati con approccio critico, già negli anni ‘70, da Joseph Weizenbaum, lui stesso creatore di un chatbot, anzi del primo chatbot, ELIZA (ne abbiamo scritto su Guerre di Rete).
Nel 2019 uno studio UNESCO analizzava (e criticava) la tendenza delle aziende tech a femminilizzare di default le voci degli assistenti vocali, sostenendo che potevano consolidare o affermare pregiudizi di genere. Nel 2020 (quindi prima dell’esplosione dell’AI generativa) un report dell’istituto americano Brookings e di quello italiano ISPI tornava sul tema con un articolo intitolato: “Come i bot e gli assistenti vocali rafforzano i pregiudizi di genere”.
Mentre le due ricercatrici Kate Crawford e Jessa Lingen nel 2020 analizzavano non solo gli stereotipi di genere degli assistenti vocali, ma anche come questa rappresentazione aiutasse a non percepirli come strumenti di sorveglianza.
In questo contesto inseriamo Sam Altman, Ceo di OpenAI (la società dietro a ChatGPT). Il quale decide che la nuova modalità per cui si può parlare con ChatGPT-4o deve avere la voce di Scarlett Johansson, che fra le altre cose ha interpretato l’intelligenza artificiale di cui Joaquin Phoenix si innamora nel film Her.
A una prima dimostrazione di questa funzione a settembre molti avevano già notato che Sky, una delle voci con cui il chatbot poteva parlare, assomigliava molto a quella dell’attrice.
Veniamo all’oggi. In questi giorni la Johansson ha rivelato che Altman aveva tentato di negoziare con lei per mesi per prestare la sua voce a ChatGPT, perché ciò “avrebbe aiutato i consumatori a sentirsi più a loro agio” con questo cambiamento tecnologico.
Ma l’attrice si rifiutò. Salvo rimanere di sasso quando poi è uscita la demo con una voce così simile alla sua. Johansson ha detto di essere rimasta “scioccata, arrabbiata e incredula”. Tanto più che a pochi giorni dal lancio della demo Altman aveva ricontattato il suo agente, chiedendo di rivedere la sua decisione. E prima di poter anche solo rispondere, la demo era uscita.
“Sul momento, era sembrato un grande successo”, scrive in questi giorni il giornalista Casey Newton nella sua newsletter Platformer. “Certo, avevo trovato il suo flirt aggressivo inquietante e apparentemente in contrasto con le precedenti dichiarazioni di Altman, secondo cui l’azienda non avrebbe perseguito strumenti di intelligenza artificiale che facessero da compagni romantici. Ma la demo era indubbiamente riuscita ad affascinare il mondo della tecnologia”.
Ma la faccenda è tornata indietro come un boomerang, anche perché Johansson ha mobilitato gli avvocati (e diffuso un messaggio pubblico che viene riportato qua). E così la scorsa domenica OpenAI ha annunciato che avrebbe tolto la voce Sky da ChatGPT, spiegando che si trattava di un fraintendimento e che non c’era stata alcuna intenzione di scippare la voce all’attrice contro la sua volontà (qua la spiegazione di OpenAI). Tanto più, ha riportato poi il WahsPost, che per Sky non ci sarebbe stata clonazione della voce di Johansson, ma sarebbe stata reclutata un’attrice, e che la documentazione uscita finora non mostrerebbe esplicite richieste di trovare una sonorità simile a quella della più nota superstar.
Il problema è che non aiuta a credere a questa interpretazione – ovvero che sia stato un fraintendimento, una somiglianza casuale – il fatto che proprio Altman, con mossa devo dire molto muskiana, poco dopo la dimostrazione di maggio abbia twittato un tweet con scritto solo Her, appunto il titolo del film con Johansson, annullando come nota qualcuno ogni possibile plausible deniability (traducibile tecnicamente in: “davvero? non sapevo, non sono stato io, ma che strana coincidenza”). Se pensava di prendersi una sorta di vendetta per il gran rifiuto dell’attrice (che per inciso aveva già messo Disney alle strette aprendo un contenzioso poi conclusosi con un accordo per lei soddisfacente), ha pensato molto male.
Soprattutto la vicenda ha assunto un significato simbolico che va ben oltre la nota celebrità, e anche oltre le modalità con cui sarebbe stata ottenuta quella voce (ragioni legali incluse, che in ogni caso restano incerte: anche se la voce non è clonata, dati i precedenti e gli elementi di contesto, OpenAI è ancora a rischio, come spiega The Verge). E ciò a causa del comportamento complessivo di Altman e OpenAI, e più in generale a causa dell’approccio complessivo di questa industria.
“Johansson è una delle attrici più famose del mondo e parla a nome di un’intera classe di creativi che si sta confrontando con il fatto che i sistemi automatizzati hanno iniziato a erodere il valore del loro lavoro”, commenta ancora Newton.
Scrive anche l’autore (e professionista di PR) Ed Zitron: “Non dovrebbe sorprendere che la Johansson non abbia colto al volo l’opportunità di lavorare con OpenAI. In quanto membro del sindacato dei lavoratori dello spettacolo SAG-AFTRA, Johansson ha partecipato allo sciopero del 2023, che ha di fatto bloccato tutta la produzione televisiva e cinematografica per gran parte dell’anno. Una delle principali preoccupazioni del sindacato era l’uso potenziale dell’AI per creare una copia di un attore, utilizzando le sue sembianze ma senza pagarlo”.
Zitron, ricordando anche come OpenAI non abbia voluto dire se Sora, il suo modello che genera video da testo, sia stata addestrato sui video di YouTube, giunge a una conclusione radicale: “bisogna smettere di ascoltare tutto ciò che Sam Altman ha da dire”.
Il giornalista tech Brian Merchant (autore del bel libro Blood in the machine, di cui ho parlato in passato) estende ancora di più il concetto: “la stessa OpenAI è un motore che si basa sul pensare che tutto ti sia dovuto: di avere il diritto di raccogliere e riappropriarsi in modo non consensuale delle opere di milioni di scrittori, programmatori, artisti, designer, illustratori, blogger e autori, il diritto di usarle per costruire un prodotto a scopo di lucro, il diritto di scavalcare chiunque all’interno dell’azienda si preoccupi di aver tradito la sua missione di sviluppare responsabilmente i suoi prodotti. Il diritto di copiare la voce di una delle star del cinema che ha incassato di più al mondo dopo che lei ha detto di no”. Gran parte della promessa dell’AI generativa, così come è attualmente costituita, è guidata da questo modo di pensare, afferma Merchant.
Il fatto che perfino una personalità come Johansson “non riesca a sfuggire allo sfruttamento tech”, per citare le parole dell’autore e podcaster Paris Marx, e che l’arroganza di alcuni magnati e amministratori tech non sembri fermarsi neanche di fronte a celebrità molto più potenti dei comuni cittadini, ci deve far riflettere su quanto abbiamo concesso a quell’arroganza di crescere. Su quanto abbiamo accettato acriticamente la “versione di Altman” e di altri come lui. E su quanto hype continui a spargersi da questo settore.
Nel mentre il team di “super-allineamento” di OpenAI ha visto diverse dimissioni chiave, incluso Ilya Sutskever (Vox).
* da Guerre di Rete
– Leggi anche questo recente studio di DeepMind che analizza tra le altre cose il rischio di antropomorfizzare gli assistenti AI. DeepMind.
- © Riproduzione possibile DIETRO ESPLICITO CONSENSO della REDAZIONE di CONTROPIANO
Ultima modifica: stampa