Pochi in Italia conoscono l'influencer Caryn Marjorie: 23 anni, americana, un seguito importante su Snapchat (quasi 2 milioni di follower). Da un po' di tempo però, esistono due versioni di Marjorie: una posta video e contenuti online ogni giorno mentre l’altra è disponibile 24 ore su 24 per chattare con i follower.
Tuttavia, non è il primo caso in cui un’intelligenza artificiale relazionale prende troppo piede libero. Era capitato a Replika, forse il più famoso tra i bot relazionali, accusato, ad inizio 2023, di molestare sessualmente qualche utente. L’applicazione era stata poi bloccata in Italia dal garante della Privacy, per i rischi legati ai minorenni: Guido Scorza, in un articolo su Italian Tech, l’aveva descritta come “la chat(bot) degli orrori”. La decisione del garante italiano aveva portato la compagnia dietro Replika a intervenire con la censura di ogni tipo di conversazione erotica. Una scelta che aveva scatenato una rivolta da parte degli utenti (la maggior parte abbonati) del chatbot, tanto da costringere l’azienda a pubblicare su Reddit un messaggio con una serie di link di supporto psicologico per tutti coloro che si fossero trovati in difficoltà.
Questa storia, insieme a quella di Caryn Marjorie mette in risalto le relazioni parasociali, da un lato l’IA permette di parlare con personaggi pubblici, creando l'illusione nell'utente di conoscere davvero quella celebrità. Oltre alla ormai conosciuta Character AI, la stessa Forever Voices che ha costruito Caryn AI offre un servizio quasi analogo: un bot di Telegram che, a seguito di un pagamento, permette di iniziare conversazioni tramite messaggio vocale con, tra gli altri, Donald Trump ed Elon Musk.
Inoltre, esistono nuovi personaggi che, tramite intelligenza artificiale, sono pensati appositamente per avere relazioni con gli esseri umani, ripercorrendo le orme di Replika. Un esempio tangibile è Call Annie, un’applicazione per smartphone che permette di videochiamare un’IA, in forma di una giovane ragazza con i capelli rossi.
Non sempre, però, questo genere di relazioni è sicuro per le persone. In Belgio, un uomo sarebbe arrivato al suicido, a seguito di una serie di conversazioni a rischio con un chatbot che, secondo quanto raccontato dalla famiglia, lo avrebbe in qualche modo spinto ad amazzarsi con l'intento di fermare il riscaldamento globale.
Il fulcro della questione è l’illusione della coscienza: come una tecnologia avanzata (non in grado di provare emozioni) sia in grado di generare nell'utente una componente emotiva. Secondo una studio cinese, al centro della questione c’è proprio la credibilità del sistema: più l’interazione è forte, più diventa indistinguibile rispetto a quella che si può creare con un essere umano. Di conseguenza, ci sarà una maggiore probabilità di sviluppare un qualche tipo di legame emotivo.
Alessandro Paolo Porrà