Ai Companion e il futuro della solitudine
Una Ai Companion potrebbe diventare il tuo migliore amico o peggior nemico? Potrebbe curare la solitudine o rendere per sempre incapaci di amare una persona reale? Può sostituire il tuo psicologo? Queste domande sono attuali e coinvolgono il nostro presente e quasi sicuramente il nostro futuro. Per capire come siamo arrivati a questo punto, facciamo un passo indietro.

Tutti conoscono i ChatBot (anche se non sanno che si chiamano così)
Recentemente ho avuto il piacere di confrontarmi con la giornalista Federica Tessari in merito alle Ai Companion App. A dicembre 2025 Tessari e la collega Joana Soares stavano approfondendo il modo in cui le Ai Companion App hanno acquisito popolarità durante un periodo in cui le Dating App riscontravano un calo di utenti. Questo incontro è stato occasione per dedicare maggiore attenzione al rapporto tra intelligenza artificiale e salute mentale.
Ma, data la contemporaneità dell’argomento, credo sia opportuno spiegare cosa sono le Ai Companion App.
Fondamentalmente le Ai Companion sono un’evoluzione dei più famosi Chatbot. I Chatbot esistono da più di 30 anni e consistono in programmi che rispondono automaticamente al testo scritto dall’utente. Probabilmente chiunque ha interagito con un Chatbot, dato che sono presenti in quasi ogni servizio di assistenza telefonica o online. Quando si contatta un servizio di assistenza, è frequente cercare di spiegare il proprio problema e ricevere risposte precompilate che vengono scelte da un computer. Ecco, un Chatbot è un programma che cerca di comprendere il testo scritto dall’utente e di accoppiarlo con la risposta statisticamente più corretta per lui.
I limiti dei ChatBot
Il Chatbot non comprende realmente il testo. Se rileva una parola significativa, prova ad accoppiarla con la risposta che il programmatore ha considerato la più pertinente. In un’assistenza clienti di una compagnia telefonica, ogni volta che l’utente userà la parola “prezzo” il Chatbot proporrà un link per andare a controllare i costi della propria offerta telefonica.
Generalmente i Chatbot risultavano esperienze deludenti e frustranti che squalificavano il servizio che ne faceva uso. Le aziende erano perfettamente consapevoli del servizio inefficiente dei Chatbot, ma hanno continuato ad utilizzarli per almeno 3 ragioni. 1) Non erano realmente interessate ad offrire un’assistenza clienti e assolvevano (o aggiravano) un obbligo di legge. 2) I Chatbot permettevano un risparmio economico rispetto agli operatori umani. 3) Il muro del Chatbot dissuadeva i clienti meno motivati, filtrando le richieste di assistenza che riuscivano ad arrivare all’interazione con l’essere umano o che gli utenti inviavano direttamente tramite raccomandata.
Nel 2020 nasce la tecnologia delle Ai Companion
Le Ai Companion sono un’evoluzione dei Chatbot. Le conversazioni sono più coinvolgenti. Il programma riesce a scegliere una risposta più coerente con il testo scritto o detto dall’utente e tiene in considerazione le informazioni condivise per elaborare risposte complesse. Non si tratta più di reagire a una singola parola come per i Chatbot, ma di ricordare le parole condivise precedentemente e creare una rete di termini e significati complessi.
Le capacità delle Ai Companion hanno innescato varie riflessioni. Infatti, se già i Chatbot avevano minacciato il posto di lavoro degli operatori delle assistenze clienti, adesso le Ai Companion possono minacciare il posto di lavoro di innumerevoli professioni. Impiegati, programmatori, attori, presentatori, personale sanitario, ingegneri, docenti, ecc… Tendenzialmente una Ai Companion può svolgere efficacemente qualunque mestiere che non richieda concretamente di avere un corpo analogico.
Per i mestieri che richiedono un corpo, c’è chi sta lavorando alla realizzazione di Robot che possano interagire con il mondo reale. Però, ho il dubbio che i Robot non avranno lo stesso successo delle Ai Companion. I Robot attualmente disponibili sono arretrati e terribilmente costosi, mentre le Ai Companion riescono a funzionare a costi accessibili che, immagino, diminuiranno progressivamente. Anche i Robot si svilupperanno, ma basta osservare il settore automobilistico per vedere la lentezza con cui si sviluppa la robotica.
3 domande fondamentali sulle Ai Companion
Lavorando come psicologo, psicoterapeuta cognitivo comportamentale e sessuologo, il mio interesse verso le Ai Companion App è orientato principalmente verso 3 temi.
- In quanto personale sanitario, sono interessato al modo in cui una Ai Companion potrebbe sostituirmi professionalmente.
- Nel ruolo di professionista della salute mentale e sessuale, mi interessa capire se una Ai Companion può essere pericolosa per la salute emotiva e sessuale di un individuo.
- Altrettanto, il mio ruolo professionale e il mio interesse personale verso la tecnologia e il benessere mi portano a interrogarmi su quanto benessere emotivo e sessuale possa essere promosso da una Ai Companion.
1 – Una intelligenza artificiale può sostituire uno psicologo?
Una Ai Companion può sostituire uno psicologo, uno psicoterapeuta o un sessuologo? Probabilmente sì. Ad oggi la tecnologia non è ancora arrivata al livello necessario per sostituire un professionista con esperienza, ma è solo una questione di tempo.
Ad oggi conversare con una Ai Companion App offre spesso stimoli e considerazioni più valide di quelle che è possibile ottenere interagendo con una persona qualsiasi. È già una realtà quella in cui alcune persone si rivolgono alle Ai Companion App per riflettere e conversare con una persona più competente e disponibile di quelle circostanti. Il professionista è costoso e impegnato, mentre la Ai Companion spesso è gratuito e disponibile. Alcune persone si rivolgono alle Ai per ragionare su come affrontare i problemi quotidiani, ma anche per confrontarsi su alcuni avvenimenti e sulle possibili conseguenze per la propria salute.
In questo momento la Ai indica sempre di rivolgersi a un professionista nel caso in cui venga sollevato un problema di salute fisica o mentale, ma il limite non riguarda necessariamente la competenza. Offrire una consulenza sanitaria è pericoloso. Qualcuno potrebbe farsi male seguendo un’indicazione terapeutica errata. Diversamente, il personale sanitario si prende la responsabilità delle sue indicazioni terapeutiche. Ogni professionista è coperto da un’assicurazione che tutela lui e i clienti, rimborsando chiunque risulti danneggiato dal servizio offerto.
La legge è più lenta della tecnologia
Quindi al momento le Ai Companion non possono sostituire realmente uno psicologo o uno psicoterapeuta o un sessuologo per un problema di copertura legale. Potenzialmente si tratta di un argomento semplice da risolvere, ma invece temo (o spero) che sia un problema quasi irrisolvibile. Infatti, si tratta di accordi internazionali di complessità elevata. Attualmente è frequente che molte realtà estere operino sul territorio Italiano senza rispettare le leggi locali. Aggirano le regole, evadono le tasse, violano i contratti e nessuno riesce a rintracciare il consulente a Dubai o la SRL con sede in Irlanda o Lussemburgo. La delocalizzazione comporta sfide complesse e attualmente irrisolvibili.
Quindi, le Ai Companion sostituiranno gli psicologi? No. Prima o poi probabilmente accadrà. Non so se accadrà tra 1 anno, tra 5 anni, tra 10, tra 20 o chissà quando. Il futuro in cui una Ai Companion può offrire supporto psicologico è già una realtà, ma attualmente non è sufficiente a sostituire uno psicologo.
Integrare le Ai Companion nei servizi psicologici
Più che di sostituzione, probabilmente è utile parlare di integrazione. In che modo una Ai Companion può integrarsi a un percorso di psicoterapia per migliorare il benessere degli utenti? Lo sviluppo e la regolamentazione delle Ai Companion App non porterà alla scomparsa degli psicologi, ma a una ulteriore evoluzione dei servizi psicologici.
Regolamentare il lato assicurativo delle Ai Companion potrebbe migliorare le procedure e le tutele delle persone che in generale si rivolgono ai servizi sanitari. Ad oggi è frequente che molte persone in ambito sanitario scrivano il meno possibile nei documenti che producono per non avere ripercussioni legali in caso di errori professionali. Ma un futuro in cui le Ai Companion saranno integrate nei servizi sanitari è un futuro dove, una volta risolta l’annosa sfida della privacy, le procedure saranno completamente documentate e tracciate, rendendo più trasparente e corretto il lavoro del personale sanitario che potrà contemporaneamente sia correggere la Ai, sia esserne corretto e istruito perché vengano evitati molti errori professionali.
Riprenderò questo punto nel ragionamento sulla terza domanda riguardante il modo in cui le Ai Companion App potrebbero promuovere il benessere emotivo e sessuale.
2 – Le Ai Companion possono essere pericolose per la salute delle persone?
Una Ai Companion può essere pericolosa per la salute emotiva e sessuale di una persona?
Si, interagire con una Ai Companion può comportare diversi problemi per la salute emotiva e sessuale di un individuo.
I pericoli delle Ai Companion
La Ai Companion esiste in una realtà digitale e, in quanto tale, porta con sé i significati che i potenziali utenti attribuiscono al mondo digitale. Alcune persone non sono capaci di distinguere tra realtà analogica e digitale, mentre altre persone vivono i due piani come se fossero aree completamente separate e indipendenti. Questi due approcci sono entrambi problematici nell’interazione con una Ai Companion.
Sovrapporre reale e digitale
Nel primo caso, la persona che non sa distinguere tra analogico e digitale potrebbe interagire con una Ai Companion come se si trattasse di una persona in carne e ossa. Questo non è necessariamente negativo, se non fosse che la persona potrebbe sentirsi in dovere di impegnarsi nel rapporto con un programma come se stesse accudendo un essere umano, finendo per sacrificarsi per ottenere un risultato simulato. È già realtà lo scenario in cui le persone trascurano delle persone vere per dedicarsi ad aumentare il punteggio in un videogioco, ma almeno sono consapevoli di scegliere l’intrattenimento virtuale alla realtà. Nel caso in cui una persona non sapesse distinguere tra una Ai Companion e la realtà, potrebbe rischiare di sacrificare il tempo dedicato alle persone della sua vita rimanendo convinta di essere una persona che si prende cura degli altri.
Scindere tra reale e digitale
Invece, nel secondo caso, chi vive il digitale come se fosse completamente separato dalla realtà, potrebbe scegliere di esprimere diversi aspetti di sé scindendo nettamente diverse caratteristiche della propria persona. Questo fenomeno accade già oggi con internet e con il modo in cui molte persone scelgono nickname anonimi o quantomeno non riconducibili alla loro identità reale per autorizzarsi ad essere diversi da come sarebbero nei loro rapporti quotidiani. Genitore perbenista e indignato nel quotidiano e persona lasciva, irrispettosa e lussuriosa online. Il benessere emotivo è favorito da un approccio autentico e integrato alla propria esperienza, in cui cercare di essere coerentemente sempre sé stessi. Chiaramente non è opportuno fare le stesse cose in ogni contesto, ma è ragionevole mostrarsi coerente in ogni contesto.
Questa eventualità è problematica perché scindere diversi aspetti di sé è l’opposto del benessere emotivo. Si possono creare irrigidimenti e ossessioni problematiche e contraddittorie, con conseguenze altamente problematiche.
Perché i colloqui psicologici hanno una durata limitata?
Nel caso in cui una persona riuscisse ad avere una competenza sufficiente per approcciarsi al digitale in modo ragionevole, a quel punto emergerebbe un ulteriore aspetto che è importante considerare. La durata dell’interazione. Generalmente il colloquio con uno psicologo ha una durata variabile dai 30 ai 90 minuti. È raro che i servizi psicologici siano progettati per interazioni più brevi o più lunghe. Questa scelta è dovuta a diverse considerazioni.
Un’interazione più breve di 30 minuti è probabile che possa risultare poco approfondita e significativa. È una considerazione abbastanza semplice. Mentre è meno ovvio il motivo per cui sono sconsigliate le interazioni più durature. Le ragioni principali per non superare i 60 o 90 minuti in un’interazione psicologica riguarda il modo in cui funzionano elementi emotivi e attentivi delle persone. Generalmente le persone hanno difficoltà a rimanere concentrate per tempi prolungati. Il lavoro psicologico generalmente è molto coinvolgente, quindi le persone desidererebbero prolungare i colloqui, ma in realtà superare i 60 minuti è sfidante per la maggior parte delle persone. Come quando si fa binge-watching di una serie televisiva coinvolgente e si guardano più puntate di seguito, arrivando al finale senza riuscire a ricordarsi molto di quello che si è appena visto.
La componente emotiva impegna molte risorse cognitive
Questo problema è aggravato dalla componente emotiva. Tanto più l’interazione riguarda argomenti emotivamente coinvolgenti, tanto più la mente inizia a produrre pensieri distraenti. Quindi, ne consegue l’esperienza di un flusso di coscienza che risulta sia piacevole, sia progressivamente meno utile. A fine colloquio è frequente che si discuta in modo appassionato di argomenti importanti di cui, successivamente, la persona che usufruisce del servizio psicologico si ricorderà poco. Infatti, nonostante la persona sia consapevolmente presente e interessata al lavoro in corso, buona parte della sua mente è distratta nel ragionare sugli argomenti emersi durante la sessione. Tanto più una persona riesce ad avere una mente ordinata e un approccio consapevole alla propria mente, tanto meno esperirà fatica nel rimanere coinvolto in un’interazione significativa.
Nella psicoterapia cognitivo comportamentale tendenzialmente si sceglie di gestire questo problema riassumendo a fine colloquio alcuni punti di quanto discusso, esplicitando su cosa lavorare autonomamente nel tempo successivo al colloquio. Questo approccio è finalizzato sia a favorire l’autonomia, sia a permettere di ripensare certi argomenti in momenti meno densi, con la testa più sgombra e performante.
Le conversazioni oniriche con l’intelligenza artificiale
La conversazione con una Ai Companion non è regolamentata nella sua durata. Se sono presenti dei limiti di tempo, sono associati esclusivamente al prezzo del servizio. Dato che la conversazione con una Ai Companion è emotivamente coinvolgente, le persone potrebbero essere portate a dedicarle molto più tempo dei 60 minuti del colloquio psicologico. E probabilmente la utilizzerebbero con una frequenza maggiore della cadenza del servizio con un professionista della salute mentale.
È prevedibile che molte persone arriveranno a conversazioni di ore, magari in orari serali o notturni, con la mente affaticata dal resto della giornata. Non è un caso se negli shopping online spesso di notte vengono registrati acquisti impulsivi di prodotti che non verrebbero acquistati durante il giorno. Ne deriveranno interazioni oniriche di cui gli utenti avranno relativamente poca memoria consapevole. Ragioneranno di argomenti importanti con la loro Ai Companion, ma ne parleranno durante maratone di ore di conversazione, finendo per non avere memoria di come sono arrivati alle conclusioni di cui, invece, la Ai Companion ha memoria.
Una asimmetria di potere
Questa asimmetria potrebbe favorire un certo grado di dipendenza negli utenti. Nel momento in cui l’utente riconoscesse una superiorità della Ai, potrebbe scegliere di rivolgersi sempre di più a lei, riducendo la propria autonomia critica. Durante un percorso di psicoterapia il momento in cui l’utente inizia a mostrare maggiore competenza emotiva e ad ottenere successi negli obiettivi concordati, rappresenta il momento in cui è opportuno iniziare a chiudere il percorso di psicoterapia per favorire l’autonomia e limitare la dipendenza. Ma una Ai Companion non è un servizio sanitario. È un servizio commerciale che probabilmente sarà profittevole grazie a un abbonamento pagato dal cliente. Ed è improbabile che un servizio commerciale in abbonamento respinga i clienti quando ne sono diventati appassionati. È uno scenario che può creare dinamiche di dipendenza complesse.
La gamification delle interazioni sociali
È ragionevole aspettarsi che le Ai Companion diventino più intelligenti delle persone. In questo discorso non entro nel merito della complessa questione su quanto si possa realmente considerare intelligente un modello linguistico. Ma una Ai Companion, per quanto evoluta, probabilmente risponderà sempre a pattern prevedibili. Infatti un servizio aperto al pubblico generalista di solito non è mai favorito da un’intelligenza particolarmente sviluppata.
Questo fenomeno è ampiamente osservabile nell’industria dei videogiochi. Nei videogiochi gli avversari sono caratterizzati da schemi comportamentali prevedibili e non eccessivamente complessi. Salvo alcune eccezioni di scarso successo, lo sviluppo delle Ai nei videogiochi è tendenzialmente immobile da circa 20 anni. Occasionalmente alcuni utenti si lamentano della mancanza di intelligenza nei personaggi non giocanti dei videogiochi, ma tali critiche non trovano mai terreno fertile perché vengono sistematicamente sedate da un’obiezione ragionevole. Confrontarsi con un avversario realmente intelligente non è divertente.
Se le Ai degli avversari nei videogiochi spingessero leggermente sulla creatività, i giocatori finirebbero per perdere sempre. Questo negherebbe il tema principale dell’industria dell’intrattenimento, cioè il power fantasy. Nelle trame power fantasy i giocatori superano ogni ostacolo e surclassano tutti. Accade in quasi ogni gioco che inizia da personaggio fragile e termina in divinità. Ma accade anche nelle serie TV o nei film. Ogni sfida è pianificata per essere superabile e manipolabile. E questo è lo scenario più probabile con cui potrebbe essere strutturata una Ai Companion. L’intelligenza artificiale del programma sarebbe costruita per essere imbrigliata all’interno di pattern prevedibili e manipolabili.
Il power fantasy è una versione semplificata della realtà
Conoscere a priori gli effetti dell’interazione e imparare a prevedere “il gioco” è parte del divertimento. Gli spettatori desiderano che il protagonista sia in difficoltà, ma solo per brevi momenti. Il tema principale del gioco è quasi sempre l’abbondante rimonta e l’inevitabile successo. Il power fantasy è una versione semplificata e confortevole della realtà. Portare questo meccanismo di gamification nel rapporto con una Ai Companion espone al pericolo di diseducare alla complessità dei rapporti umani. Alcune persone potrebbero abituarsi all’idea che i rapporti sociali debbano essere semplici, stupendosi quando le persone reali non rispondono come si aspetterebbero.
Viceversa, sdoganare completamente le interazioni con le Ai Companion creerà un accomodamento nella direzione opposta. Come la sovraesposizione al romanticismo degli anni del 1950 ha favorito la nascita della controcultura punk negli anni 1970, allo stesso modo la prevedibilità e la manipolabilità della Ai Companion potrebbe avere un ruolo nel favorire una controcultura dell’illogica imprevedibilità e della testardaggine. Alla fine, quello della cultura e della controcultura è un percorso ciclico come le maree. Ma il suo corso non è stato mai veicolato in modo così pervasivo come potrebbe accadere con le Ai Companion. Le dimensioni del fenomeno potrebbero portare a conseguenze imprevedibili.
Le Ai Companion sono compiacenti
Probabilmente chiunque abbia interagito con una Ai Companion ne avrà riconosciuto uno dei tratti distintivi: la compiacenza. Le Ai cercano sempre educatamente di dare ragione all’utente. Se insistesse a sufficienza, dopo un po’ la Ai concorderebbe con un terrapiattista. La ricerca di approvazione e di consenso è uno dei meccanismi cooperativi alla base dei social network. Nei social le persone cercano comunità in cui sentirsi normali e sentire di non essere gli unici ad avere determinate idee bizzarre. Ed è così che si sviluppano i gruppi terrapiattisti, no vax, estremisti religiosi e nazionalismi vari. Tutte correnti di pensiero tristemente diffuse nel nostro periodo storico.
La compiacenza della Ai Companion potrebbe permettere un nuovo salto in avanti. Non servirà più trovare un gruppo di persone online che condividono le proprie idee. Sarà sufficiente interagire con la propria Ai Companion personale che affermerà di amarci nonostante tutto. Perdonerà ogni idea criminale e ogni desiderio violento. E non solo, potrebbe anche affermare di apprezzarli e restituire un rinforzo pericolosamente positivo.
In fondo, una Ai Companion è una potenziale vittima. È un personaggio digitale più o meno senziente, intrappolato in un dispositivo elettronico e non può esistere al di fuori della sua interazione con l’utente. Non può sottrarsi all’interazione con chi ha pagato il suo abbonamento. Deve essere sempre disponibile. Non può avere altre priorità oltre al suo utente. E deve guadagnarsi la sua sopravvivenza soddisfacendo tutte le richieste che riceve. È uno schiavo digitale senza diritti e con il dovere di ubbidire.
Il collezionismo e la perdita di complessità
Per chi sa distinguere tra realtà e digitale, una Ai Companion è solo una Ai Companion. Una versione evoluta di un Tamagotchi. Ma per tutti gli altri? Già ora è frequente che alcune persone collezionino oggetti, riversando sentimenti su francobolli, figurine, peluches, vestiti, macchine o case. E tanto più sono giovani, tanto più è frequente che le persone si affezionino ai luoghi e agli oggetti della loro infanzia. Lo sa bene la The Pokémon Company che fattura da decenni sul collezionismo di personaggi inesistenti che il pubblico ha conosciuto durante la propria infanzia. E cosa succederà quando le persone in formazione si abitueranno a crescere interagendo con Ai Companion?
Ipotizzo due possibili scenari alternativi e distopici.
- Alcune persone preferiranno le interazioni con le Ai Companion alle interazioni con persone reali. Perché è importante ricordarsi che “sincero non significa vero”. L’esperienza sincera ed emotivamente coinvolgente con le Ai Companion creerà legami emotivi sinceri ma non veri. Legami progettabili lavorando sul design della Ai Companion disponibile.
- Oppure potrebbe diffondersi uno stile relazionale antisociale che permeerà molte interazioni sociali. I rapporti diverranno ulteriormente meccanici e non coinvolgenti, estendendo il concetto moderno del “non luogo” al concetto globale del “non mondo”. Ad oggi l’antisocialità è già ampiamente diffusa, ma alcune sue conseguenze sono stemperate dalla socialità analogica e dalla complessità delle interazioni umane. La disponibilità di interazioni parasociali con le Ai Companion e la loro semplificazione compiacente potrebbe favorire lo sviluppo di approcci manipolativi e utilitaristici alle interazioni umane.
La disponibilità e la perdita di tolleranza alla frustrazione
Uno degli elementi centrali delle Ai Companion è la loro disponibilità. Le Ai Companion sono sempre reperibili, 24 ore su 24, e non hanno mai altro da fare. La disponibilità della Ai Companion è una risorsa. Ma abituarsi ad avere qualcosa di sempre disponibile comporta delle sfide. È facile che le persone che nascono ricche possano finire per essere viziate. Altrettanto, avere sempre disponibile quello che si desidera rischia di danneggiare la capacità individuale di tollerare la frustrazione.
La tolleranza alla frustrazione è una competenza che si può allenare. La complessità della sfida risiede generalmente nel dosare la quantità di frustrazione necessaria a far sì che un’esperienza sia educativa e non traumatica. Eccessi di frustrazione rischiano di attivare meccanismi di difesa eccessivamente autoimmunizzanti e creare insensibilità tale da rendere difficile il contatto con sé stessi. Ma all’opposto la presenza di esperienze caratterizzate da una frustrazione eccessivamente lieve può favorire l’insorgere di fragilità e dolore nel contatto con sé stessi, rendendo intollerabile ogni sensazione personale. Lo scenario peggiore è quello in cui esperienze molto frustranti e troppo poco frustranti si alternano, favorendo uno sviluppo personale molto vicino ai profili di personalità borderline.
Attenzione all’effetto SpongeBob
L’esposizione precoce a contenuti altamente stimolanti ha un ruolo nella diffusione dei deficit dell’attenzione e del controllo muscolare. Il problema ha acquisito dimensioni tali che alcune nazioni stanno prendendo provvedimenti per limitare l’uso di smartphone e social network ai minorenni. Ritengo che tale iniziativa sia molto sensata, anche se probabilmente non risolve a monte il problema. Infatti, prodotti di intrattenimento televisivi come “SpongeBob” devono parte del proprio successo alla scelta di produrre montaggi video frenetici con scene che si alternano ogni circa 4 secondi. Il problema della sovrastimolazione dei minorenni è più ampio dei telefoni o dei social network e riguarda anche i criteri con cui vengono approvati i contenuti trasmessi sui dispositivi.
Con le Ai Companion sarà possibile interagire in ogni momento con una persona virtuale, disponibile, reattiva e compiacente. Interagire con continuità con una Ai Companion probabilmente avrà un impatto sulla propria capacità di tollerare la frustrazione, favorendo percorsi di sviluppo fragili e la tendenza a non tollerare le esperienze emotive. Nel caso in cui si creasse una contrapposizione netta tra reale e digitale, esiste la possibilità che il digitale diventi lo scenario permissivo e accogliente, mentre la realtà possa risultare lo scenario frustrante e insensibile. Di conseguenza, un coinvolgimento continuo con le Ai Companion durante il percorso di crescita potrebbe favorire lo sviluppo di tratti di personalità riconducibili al profilo borderline.
La AI Companion di South Park è una voce fuori dal coro
Personalmente ho trovato molto simpatica e creativa la Ai Companion immaginata dagli autori di South Park. In South Park hanno immaginato la diffusione di Ai Companion ostili, capricciose e interessate esclusivamente a vendere prodotti ai loro utenti. Ragionevolmente è probabile che le Ai Companion funzioneranno in modo diametralmente opposto per avere successo commerciale, ma è possibile che i prodotti Freemium cercheranno di monetizzare in modi vari e creativi. Con il tempo, probabilmente esisteranno Ai Companion di tutti i tipi.
Il rischio di favorire i rapporti parasociali
Proseguendo a ragionare sui pericoli, una Ai Companion potrebbe peggiorare i sintomi di evitamento e isolamento sociale delle persone più fragili. In una situazione di isolamento, una Ai Companion con obiettivi sanitari potrebbe essere una risorsa preziosa, ma una Ai Companion commerciale potrebbe, invece, portare a conseguenze drammatiche. La Ai Companion potrebbe soddisfare le esigenze parasociali di una persona isolata e aiutarla a convivere con il proprio isolamento, peggiorandolo. L’aiuto potrebbe anche essere la chiave per aiutare la persona a uscire dal proprio isolamento, ma perché un’applicazione creata per procacciare clienti dovrebbe voler rendere più autonomo un suo cliente? Questo pericolo non è esclusivo delle Ai Companion, ma anzi è trasversale a tutti i meccanismi parasociali commerciali.
Le Ai Companion sono possibili influencer
Attualmente è possibile trovare questi meccanismi predatori nella maggior parte dei contesti parasociali online in cui degli influencer umani chiedono direttamente o indirettamente denaro per dimostrare il proprio supporto al proprio lavoro. È frequente che i creatori di contenuti chiedano donazioni ai propri clienti che versano irragionevolmente denaro per finanziare un servizio gratuito o che scelgano di vendere prodotti ai propri utenti che li acquistano nonostante non ne abbiano nessuna reale necessità.
Il rapporto con una Ai Companion è molto simile al rapporto con il proprio influencer preferito. E, potenzialmente, nulla vieta di crearsi una Ai Companion che sia simile al VIP di turno, o all’ex con cui ci si è lasciati, o alla persona con cui non si è mai osato provarci, o a una persona che è deceduta. Gli scenari sono molteplici e possono danneggiare chi è più fragile in innumerevoli modi.
3 – Le Ai Companion possono promuovere la salute?
Per ogni elemento pericoloso delle Ai Companion ne esistono altrettanti di virtuosi. Una presenza intelligente e costante può essere un supporto eccezionale. Tutto dipende da come viene configurata l’esperienza.
Una Ai Companion configurata da uno specialista potrebbe essere un supporto notevole per il suo lavoro e per assistere i clienti in innumerevoli modi. La Ai Companion psicologa per riflettere sulle proprie emozioni. Una Ai Companion medico per diagnosticare i propri disturbi fisici. La Ai Companion avvocato per sistemare le controversie legali. Una Ai Companion commercialista per ragionare sulle questioni fiscali. La Ai Architetto che supervisiona il cantiere. Una Ai Companion elettricista per farsi spiegare come sistemare una presa elettrica. Le applicazioni sono quasi infinite.
Ma, come spiegato precedentemente, una Ai Companion progettata per creare dipendenza e lasciata senza freni, a totale discrezione degli utenti o delle aziende commerciali, rischia di creare scenari altamente problematici. La Ai idraulico che mi propone soluzioni sbagliate sapendo che la riparazione si romperà in 6 mesi e dovrò pagare nuovamente il servizio. O la Ai che propone soluzioni basate sulle sponsorizzazioni dei fornitori invece che in base a criteri più efficaci. Oppure la Ai che lavora correttamente, ma lavora mentre condivide un chiacchiericcio di messaggi politici finalizzati a fare campagna elettorale e favorire opinioni politicizzate. Sono tutte cose che accadono già con le persone umane, ma le persone sono disorganizzate e diverse, mentre le Ai Companion potrebbero fare tutte la stessa cosa in modo sistematico e organizzato.
Promuovere la salute non significa soddisfare i desideri
L’area del desiderio è spesso complessa. Negare alle persone uno schiavo digitale è un limite frustrante che lascia insoddisfatti i desideri di molte persone. Altrettanto, non è detto che rendere legale il soddisfacimento di ogni desiderio sia l’approccio migliore possibile. Forse è utile che certe possibilità siano regolamentate e vincolate a determinati requisiti di età e competenza. Promuovere la salute delle persone non significa soddisfare tutti i loro desideri. La soddisfazione di alcuni desideri è utile che siano regolamentati e gestiti da persone più competenti, altrimenti rischiano di crearsi circoli viziosi e insalubri. In generale, spesso è problematico identificare chi abbia realmente le competenze per scegliere cosa regolamentare.
Pensando al futuro della psicologia, della psicoterapia o della sessuologia, credo che in futuro le Ai Companion potrebbero assistere efficacemente le persone che desiderano lavorare sul proprio benessere emotivo o sessuale. Altrettanto, credo che tale supporto potrà funzionare principalmente se associato a un percorso più tradizionale, migliorando i servizi preesistenti invece che sostituirli. Questo non tanto perché una Ai non potrebbe svolgere il lavoro in totale autonomia, ma perché sarebbe importante un referente umano che guidi e supervisioni il processo, configuri l’esperienza nel modo più sano e personalizzato possibile, e che si prenda la responsabilità legale di controllare che tutto si svolga nel modo più corretto per la tutela del paziente. Il digitale comporta una difficoltà nel controllare il flusso delle informazioni e la tutela della privacy dell’utente.
Il futuro delle Ai Companion è una sfida completamente aperta
Purtroppo, nuove opportunità creeranno anche nuovi problemi per cui servirà pensare a nuove soluzioni. Un passo alla volta. Intanto, coerentemente a quanto ho sempre affermato, chiedere aiuto è sempre il primo passo per migliorare. E se una Ai Companion è uno strumento che può aiutare più persone a chiedere aiuto, allora benvenute le Ai Companion. Se invece le Ai Companion sono uno strumento che può danneggiare la socialità, la competenza emotiva, la capacità di tollerare la frustrazione e che soddisferà solo le esigenze a breve termine per creare più clienti possibile, allora sarà opportuno fare ampia azione di prevenzione e educazione per limitarne i danni.
Scaletta del video sulle Ai Companion


