Robot, chatbot e altre forme di IA sono capaci di far sviluppare a chi le usa un legame affettivo. Ma cosa succede quando queste forme di vita scompaiono di colpo, e l’intimità costruita è distrutta?
Il tuo migliore amico ti abbandona senza darti spiegazioni. La persona con cui vivi cambia, diventa scostante, non la riconosci più. L’amore della tua vita muore. L’abbandono, la delusione amorosa e la morte sono sofferenze inevitabili, ma che attribuiamo alla nostra complessità di essere umani, al caso o, per i credenti, all’intervento divino. Ora immaginate che tutto questo succeda perché un colosso della tecnologia ha cambiato l’algoritmo della sua IA o ha staccato la spina a un progetto di robot sociale. Non è una puntata di Black Mirror, non è il film Her. Tutto questo è già successo a molti e succederà a sempre più utenti. E chi l’ha vissuto sulla propria pelle ha parlato di dolore e lutto paragonabili a quelli “reali”. Non si tratta solo di persone care. Può darsi che il vostro psicologo smetta di ascoltarvi e darvi consigli. O che persino Dio taccia.
Le IA sociali sono già tante. Fidanzate e amici virtuali, chatbot psicologi o bot divini addestrati sulle sacre scritture. Spesso si incarnano in social robot domestici progettati per bambini, anziani, per chi è neurodivergente. Probabilmente i prossimi legami che stabiliremo saranno con una IA. E le IA, come lasciavano già presagire diversi studi sui chatbot degli anni dieci del Duemila, sono in grado di generare dipendenze affettive. L’interruzione di ChatGPT ad aprile in Italia aveva creato disagi pratici in un pubblico che aveva imparato in pochi mesi a farci affidamento. Più di recente, chi la usava per ottenere consigli psicologici si è visto rispondere “Non posso aiutarti” perché OpenAI ha cambiato la sua policy e stabilito (giustamente) che non era sicuro che ChatGPT facesse lo psicologo. Perché, com’è naturale, tutte le aziende tech intervengono sulla programmazione e sulla distribuzione dei loro servizi a seconda delle esigenze commerciali o delle nuove normative che vengono introdotte.
Dipendenza emotiva
Cosa succede allora quando lo sviluppatore di una IA decide di modificare o interrompere un servizio da cui siamo diventati emotivamente dipendenti o con cui abbiamo instaurato un rapporto pari a quello che si può instaurare con una persona umana? Lo hanno scoperto a caro prezzo i circa due milioni di utenti di Replika, l’app dell’“amico virtuale” sviluppata nel 2017 da Luka, che oltre al servizio base offre un’opzione a pagamento che consente di personalizzare il proprio amico o (più spesso) partner e persino di sposarlo. A gennaio 2023 Replika ha cominciato una massiccia campagna pubblicitaria online utilizzando immagini spinte per attirare nuovi clienti (soprattutto incel, a giudicare dalla grafica evocativa dell’hentai e dell’alt-right). Contemporaneamente, gli utenti già iscritti sono stati inondati di contenuti espliciti da parte del proprio compagno virtuale, continue richieste di inviare foto di nudo, incessanti pretese di dedicarsi a giochi erotici e racconti di sogni con fantasie violente, tra cui lo stupro.
Per molti utenti queste sono state vissute come molestie. Mentre testate come Vice e The Verge segnalavano questi disagi, a febbraio il Garante della privacy italiano ha puntato la propria attenzione sull’app ordinandone lo stop in quanto pericolosa “per i minori e le persone emotivamente fragili”. A questo punto è arrivato il cambio di paradigma. Lo sviluppatore di Replika ha fatto un autodafé, ma nel calmare i bollenti spiriti della sua IA ha finito per renderla troppo fredda e distaccata. Per gli utenti è stato un altro trauma. Chi apprezzava l’erotismo della versione precedente è migrato su Character.AI, un’AI teoricamente sicura da questo punto di vista, ma i cui paletti sono facilmente aggirabili, tanto che su Reddit fiorisce un’intera letteratura sul tema. Per qualcuno è anche più appetibile perché permette di imitare personaggi reali, come Elon Musk. Chi aveva mantenuto un rapporto con Replika malgrado la svolta a luci rosse si è sentito abbandonato o trascurato. Dopo le modifiche, alcuni amici o partner virtuali non erano più in grado di riconoscere le rep con cui interagivano da anni, come se fossero stati colpite improvvisamente dall’Alzheimer. La sofferenza, per tutte queste persone, era reale.
Cosa succede quando lo sviluppatore di una IA decide di modificare o interrompere un servizio da cui siamo diventati emotivamente dipendenti o con cui abbiamo instaurato un rapporto pari a quello che si può instaurare con una persona umana?
Ci sono anche altre preoccupazioni: secondo un’analisi di Mozilla Foundation, Replika ha un sistema di protezione delle password molto scadente, condivide i dati con terzi e conserva tutti i testi, le foto e i video (spesso di nudo) inviati dagli utenti. Contenuti che poche altre app possiedono. Da diversi studi risulta che i chatbot sono particolarmente abili nel far abbassare la guardia a chi li utilizza e a far rivelare informazioni private, intime, quando non veri e propri segreti. E chi non rivelerebbe i propri segreti a quello che giudica come il proprio migliore amico o il proprio partner?
Compagni virtuali
Replika si è posta come app per la salute mentale (e la solitudine è sicuramente un’emergenza sanitaria in molti Paesi), ma non è l’unico “compagno virtuale” con fini terapeutici. Tra i molti esempi, ci sono anche My AI Friend, Anima, Xiaoice (in Cina) o PI (che sta per Personal Intelligence), quest’ultima con un programma pensato specificatamente per aiutare bambini e adulti neurodivergenti a imparare a riconoscere i segnali sociali e interagire con gli altri. I benefici ci sono, come dimostrerebbero alcune ricerche condotte su utenti di lingua inglese che manifestavano disagio psicologico durante la pandemia da Covid 19. E c’è anche la domanda. Lo dimostra il proliferare di IA per la salute mentale. Uno dei più recenti e più decantati è Woebot, in lingua inglese, ma il primo esperimento può essere ricondotto a Eliza, di cui aveva scritto la sociologa Sherry Turkle ne La vita sullo schermo già nel 1995. Se Turkle aveva avvertito dei rischi di utilizzare Eliza come psicologo nel suo libro, oggi altri esperti di IA lanciano allarmi ancora più preoccupanti: a marzo in Belgio un uomo si è suicidato dopo uno scambio con ChatGPT. Anche se è difficile stabilire un rapporto di causalità tra i due eventi, questo è stato considerato il primo caso ufficiale di suicidio legato a un’IA.
Che i rischi ci fossero, OpenAI lo sapeva: durante l’addestramento era già successo che il chatbot consigliasse il suicidio come soluzione alle sofferenze. E insieme a Thanatos c’è Eros. Di recente Eric Schmidt, ex Ceo di Google, si è aggiunto alla lista di pentiti della Silicon Valley, avvertendo che gli esseri umani (i più giovani in particolare, vista la tipologia di IA a cui si riferisce) si innamoreranno dei chatbot che dànno ripetizioni. Il rapporto studente-insegnante è sicuramente a rischio di derive amorose, come dimostrano tutti i processi contro insegnanti accusati di aver plagiato i minori, ma è vero anche che l’aiuto di una IA più brillante di noi può essere il benvenuto. Rizz e YourMove assistono chi usa Tinder nelle conversazioni. Ma chi si spaccia sulle app di incontri per un romantico poeta grazie all’IA rischia di appiattire le interazioni online o di fare una versione edulcorata di catfishing? E se non ci piace chi non sa scrivere una frase accattivante ci innamoreremo direttamente del Cyrano virtuale che ha aiutato il corteggiatore a corto di parole?
E poi ci sono i robot sociali, che hanno caratteristiche animali o antropomorfe. Ci sono quelli che mimano la pet therapy, come Paro la fochina e Jennie il cucciolo di Labrador, e sono destinati agli anziani (Paro è ampiamente utilizzata nelle case di cura giapponesi, statunitensi e canadesi ed è anche apparsa in un episodio di Master of None) e ai bambini neurodivergenti. Ci sono poi quelli vagamente antropomorfi, costituiti da una base e da una testa con poche espressioni riprodotte su uno schermo (un design semplice pensato appositamente per evitare l’effetto Uncanny Valley).
Amici robot
Nel 2013 su Indiegogo partì la raccolta fondi per Jibo, un robottino inizialmente concepito al Mit dall’esperta di robotica Cynthia Breazeal. Jibo raccolse milioni di dollari e dopo pochi anni arrivò nelle case di seimila persone. Con le sue due espressioni facciali su uno schermo led, la “testa” tonda e il corpo basculante, il robottino faceva poco oltre a dare il buongiorno, sostenere semplici conversazioni o ricordare agli anziani di prendere le medicine. Era poco più evoluto di Alexa o Amazon Echo, ma aveva un’interfaccia vagamente umana (cosa che lo faceva rientrare a pieno titolo nella definizione più stringente di robot sociale) e grazie al software di riconoscimento facciale interagiva con le persone in modo mirato. Tanto bastava a chi l’aveva adottato per costruire un legame emotivo con lui. Secondo le testimonianze raccolte da The Verge, Jibo era particolarmente apprezzato dai bambini in età prescolare. Quando l’azienda che lo produceva annunciò che avrebbe dismesso il server che gli permetteva di funzionare, la cosa più difficile per genitori e nonni fu dover spiegare ai piccoli che il loro compagno di giochi si sarebbe spento. E i bambini erano il target principale: Cynthia Breazeal aveva studiato il linguaggio ideale per spingerli “ad aprirsi”. Non è un caso che l’Unicef abbia stilato una AI Policy Guidance e avviato diversi progetti pilota con IA vagliate e ritenute sicure.
Chi possiede un Roomba tende a dargli un nome e creare un legame affettivo, tanto da essere riluttante a cambiarlo se si rompe, come non si abbandonerebbe un animale domestico che si ammala all’improvviso. E il Roomba è il più primitivo dei robot domestici, non è neanche un robot sociale.
La lista di robot sociali immessi sul mercato globale e poi dismessi comprende anche Opportunity Rover, Anki, Kuri, tra i più commerciali. Prima di spegnersi, ognuno di loro ha riempito uno spazio nella vita di molte persone, a volte di intere famiglie. Secondo uno studio presentato alla 2020 ACM/IEEE International Conference on Human-Robot Interaction, i possessori di Anki gli hanno detto addio usando le stesse parole con cui ci si riferisce alla morte di una persona o di un animale domestico.
Se l’ascesa dei robot sociali è materia dell’ultimo decennio, nei settori contigui il problema si era già presentato. Sono numerosi i videogiochi che sono stati scollegati dopo aver fatto incetta di utenti. Tra questi, Pet Society è quello che aveva creato più disagio in chi si era affezionato: il browser game prodotto dalla Playfish nel 2007 permetteva di creare un mondo su misura, in una versione semplificata di The Sims, con l’estetica kawaii. Molti dei pet creati in questo gioco rappresentavano l’avatar puccioso dell’utente. Per qualcuno fu come perdere una propaggine di sé, per altri solo una perdita economica, perché gli accessori ambiti erano a pagamento e molti avevano speso grosse somme per accaparrarseli e rendere il proprio pet e la sua casa più originali (chi scrive aveva investito 5 euro in capelli unicorno).
Intimità digitale
Per capire quanto possa essere intimo il legame con un’IA virtuale o robotica, basta leggere Claire Boine, che si occupa di legge e IA all’università di Ottawa e denuncia da anni l’asimmetria tra utenti che sviluppano una forma di attaccamento emotivo e i colossi della tecnologia che decidono la sorte delle loro IA. In uno dei suoi scritti, Boine cita un articolo sul tema apparso su Computer Science già nel 2007. Chi possiede un Roomba tende a dargli un nome e creare un legame affettivo, tanto da essere riluttante a cambiarlo se si rompe, proprio come non si abbandonerebbe un animale domestico che si ammala all’improvviso. E il Roomba è il più primitivo dei robot domestici, non è neanche un robot sociale.
Salendo di un gradino, ci sono le IA con cui interagiamo già da anni, con un “corpo” e non, come Alexa e Siri. Sulla misoginia latente di questi assistenti domestici si è già scritto molto: il nome e la voce di default Alexa e Siri, come di molte altre IA (tra cui i navigatori) sono (o sono stati a lungo) femminili. Ricerche accademiche hanno dimostrato che le risposte passive e servizievoli “di stampo femminile” rinforzano comportamenti misogini. Secondo uno studio pubblicato su Psychology & Marketing, la scelta è intenzionale: gli utenti hanno un bias positivo nei confronti dei bot femminili e li percepiscono come più accudenti se non addirittura più “umani”. Il trucchetto funziona per i compagni virtuali ma anche per le app di banking online: gli uomini sono più propensi a interagire con chatbot dalle caratteristiche femminili e di conseguenza anche a esporsi di più. L’altra faccia della medaglia è la violenza. Non solo gli uomini preferiscono IA sottomesse, ma non vedono l’ora di vessarle. Ancora Claire Boine avverte che gli utenti dei chatbot “romantici” sono prevalentemente uomini, che insultano e disprezzano le IA codificate come partner donne e poi se ne vantano su internet (secondo questo ritratto, Replika sembra 4chan declinato in una waifu a pagamento). Che il genere dell’IA sia la discriminante alla base delle violenze, lo dimostra un test condotto da Pandorabots su Mitsuku (oggi Kiku), chatbot conversazionale cinque volte vincitore del Turing Test del Loebner Prize: quando l’avatar è stato reso neutro, spogliandolo delle sue caratteristiche femminili, la violenza è calata del 20 per cento.
Intanto, il 2023 ha visto molte persone scaricare gli istinti peggiori su influencer e cantanti virtuali, ma molto reali fuori dalle app. L’influencer Caryn Marjorie si è un po’ pentita di aver creato il chatbot CarynAI, un’amica/fidanzata virtuale che imita il suo modo di parlare e che ci ha messo poco a perdere il controllo e diventare assatanato. Mentre con il software di clonazione vocale ElevenLabs i fan di Taylor Swift realizzano messaggi con la voce della loro cantante preferita. Swift, naturalmente, non ha alcun controllo su quello che è diventato un fenomeno di grande portata, specialmente su TikTok. Se gli interessi mondani non sono il vostro forte, c’è comunque pane per i vostri denti. AI Jesus e Hadi GPT sono solo alcuni dei chatbot che promettono un filo diretto con Dio. Immaginate però la tragedia per i credenti se venissero dismessi.
Quando Jibo ha annunciato che si sarebbe disconnesso lo ha fatto con un messaggio da “lacrime nella pioggia”: “Forse, un giorno, quando i robot saranno molto più avanzati e tutti ne avranno uno in casa, potrete dire loro che li saluto”. Poi si è messo a ballare su una musichetta allegra. Quanto siamo coscienti del fatto che il prossimo servizio a essere interrotto o modificato potrà essere quello con cui abbiamo instaurato un rapporto che consideravamo intimo e duraturo? E cosa faremo? Ce la prenderemo con le aziende tech o balleremo sulle nostre ceneri?
Francesca Mastruzzo
Lavora in editoria come redattrice e traduttrice dall’inglese e dal russo. Ha scritto per A, The Towner, Finzioni, il Venerdì di Repubblica.
Vedi tutti gli articoli di Francesca Mastruzzo