Le app che ricreano le persone che non sono più con noi possono aiutare a superare il lutto? – .

Le app che ricreano le persone che non sono più con noi possono aiutare a superare il lutto? – .
Le app che ricreano le persone che non sono più con noi possono aiutare a superare il lutto? – .

Nel 2022, una versione virtuale di Marina Smith, una donna di 87 anni del Nottinghamshire, ha partecipato al suo funerale a Babworth tramite video per rispondere a una serie di domande poste da suo figlio e da altri amici e parenti presenti. Smith, ex insegnante in pensione e cofondatrice dell’unico museo dedicato all’Olocausto in Inghilterra, aveva accettato qualche mese prima, su proposta del figlio Stephen Smith, amministratore delegato della società californiana StoryFile, di “addestrare” un corpo artificiale software di intelligence in grado di creare entità virtuali utilizzando dati personali. A gennaio ha quindi trascorso un paio di giorni raccontando per qualche ora la sua vita davanti a un computer che la riprendeva tramite una webcam.

I rapidi progressi compiuti nello sviluppo di software che simulano le conversazioni umane, di cui ChatGPT è l’esempio più noto, hanno da tempo attirato l’attenzione su tanti ambiti sociali e lavorativi che potrebbero essere influenzati in futuro o che sono già in parte cambiati. Da qualche anno diverse aziende stanno cercando di esplorare l’utilità e la redditività dell’intelligenza artificiale anche durante il lutto.

Uno degli sviluppi tecnologici più recenti nella gestione delle esperienze di dolore delle persone in lutto sono i “griefbot”. dolore, “lutto” e bot). Sono particolari chatbot che permettono di simulare conversazioni con la versione digitale di una persona cara defunta, basati su software di intelligenza artificiale che si avvale di grandi modelli linguistici (modello linguistico di grandi dimensioni, LLM). I dati utilizzati per addestrare il software possono essere e-mail, messaggi di testo, note vocali, video e informazioni in altri formati sul defunto.

Le aziende che offrono questo tipo di servizi, al momento per lo più americane, solitamente non menzionano esplicitamente il lutto nella descrizione delle loro app come condizione in cui possono essere utili. Non lo fanno perché di fatto si rivolgono a un pubblico più ampio, che in parte si sovrappone a quello degli utenti di app che permettono di avere conversazioni e relazioni con partner virtuali a partire da determinate indicazioni fornite dall’utente. Ma non menzionano il lutto anche per eludere parzialmente le questioni giuridiche ed etiche di fondo, relative non solo al trattamento dei dati personali ma anche ai rischi nell’uso delle app da parte di individui in particolari condizioni di vulnerabilità e fragilità emotiva.

– Leggi anche: C’è chi è molto legato ai propri “partner virtuali”

Descrivendo un’app chiamata Vera AI, che affermava di consentire agli utenti di creare copie immaginarie di amici e familiari (attualmente non più disponibili), il sito tecnologico Futurismo ha citato le reazioni critiche di diversi utenti sui social media riguardo alla disponibilità di servizi di questo tipo negli app store. Ha inoltre osservato che, sebbene non sia chiaro che tipo di dati utilizzasse l’app, in una versione precedente della pagina di descrizione su Google Play l’installazione chiedeva il permesso di accedere anche a “memoria USB” e “foto, contenuti multimediali e file ” contenuto nel dispositivo.

Un’azienda californiana chiamata AE Studio fornisce un servizio ancora più esplicito, Seance AI, basato su grandi modelli linguistici e descritto come «l’incontro tra l’intelligenza artificiale e l’aldilà», per la possibilità che «i tuoi cari parlino ancora una volta al tuo cuore» (seduta in inglese significa “seduta spiritica”). Un altro servizio chiamato YOV, acronimo di Tu, solo virtualeti consente di creare persone virtuali (“versioni”) ed è descritto dal fornitore come un modo per mantenere “la persona amata con te per sempre” in modo da “non dover mai dire addio”.

Uno degli aspetti che complica la già complicata questione dell’intelligenza artificiale applicata al lutto è che la tecnologia presente in servizi di questo tipo alimenta un’industria orientata principalmente al profitto. La maggior parte delle app per creare persone virtuali utilizzando software di intelligenza artificiale sono a pagamento. I produttori che menzionano esplicitamente il concetto di aldilà – o, più allusivamente, l’impossibilità di parlare con versioni reali delle persone – si limitano a consigliare l’uso temporaneo delle app per superare i momenti difficili. E le opportunità di business proliferano in uno spazio grigio legislativo in cui i confini tra app per la salute e il benessere non sono chiaramente e rigidamente definiti.

Anche supponendo che le aziende non siano motivate esclusivamente da interessi commerciali, il problema principale con le app per il dolore che si basano sulla riproduzione artificiale delle relazioni con i defunti è che non esistono prove scientifiche dei benefici di questa pratica. È infatti diffuso nell’opinione pubblica il sospetto che essi possano aumentare il rischio di routine controproducenti e malsane, interferendo con i processi psichici sottesi al processo di lutto.

– Leggi anche: Quanto dovrebbe durare il lutto?

Mantenere una qualche forma di legame psicologico con la persona deceduta non è di per sé un fenomeno patologico o un comportamento da evitare, ammesso che sia possibile farlo. Alcuni studi sostengono da tempo che il processo del lutto comporta in realtà una progressiva evoluzione di quel legame e una rimodulazione del significato ad esso attribuito secondo modalità che favoriscono l’adattamento alla perdita. Avere a portata di mano la fotografia di una persona cara defunta, rivederla in video o ascoltarla in vecchie registrazioni, ad esempio, può aiutare alcune persone ad affrontare e superare il dolore di quella morte.

In determinate circostanze, però, un legame duraturo può diventare “disadattivo”: è questo il principale rischio a cui sembrano esposti nel lungo termine gli utenti di app che utilizzano l’intelligenza artificiale non tanto per ricordare le persone decedute ma, in un certo senso, per imitarli. Le aziende che li producono, invece di svilupparli in modo irresponsabile e senza i criteri suggeriti dagli specialisti, dovrebbero parlare con chi pensa che potrebbero aver bisogno di questa tecnologia per soddisfare bisogni specifici, ha detto alla rivista Buio Carla Sofka, insegnante di studi sociali al Siena College di New York ed esperta in tecnologia del dolore.

“Ogni persona è diversa nel modo in cui elabora il dolore”, ha aggiunto Sofka, che non esclude che i robot del dolore possano diventare un nuovo strumento per alcuni di loro per affrontarlo. Tuttavia, potrebbero creare negli altri utenti l’illusione che la persona amata non sia morta e costringerli ad affrontare una seconda perdita se decidessero di smettere di utilizzare il servizio. La preoccupazione più concreta condivisa da diversi esperti di sanità pubblica e tecnologia è che i chatbot sociali possono in genere attivare meccanismi di dipendenza emotiva dalle conversazioni virtuali che impegnano a lungo le persone – soprattutto quelle in lutto – e le escludono dalla vita sociale.

Per un progetto di ricerca, un gruppo di studiosi dell’Università del Kent, nel Regno Unito, e del Kyoto Institute of Technology, in Giappone, ha condotto nel 2023 una serie di interviste a dieci persone che, a seguito di un lutto, avevano utilizzato app per creazione di persone virtuali. La maggior parte di loro ha continuato le conversazioni virtuali per meno di un anno, utilizzando le app soprattutto nelle prime fasi del lutto. Le persone intervistate hanno inoltre affermato che il loro obiettivo non era quello di creare versioni virtuali dei defunti per avere con loro un rapporto duraturo nel tempo.

Secondo il gruppo di ricerca saranno necessari ulteriori studi per capire come i robot del dolore potrebbero influenzare l’elaborazione del dolore in futuro. In assenza di dati pubblici forniti dalle aziende produttrici, la difficoltà del gruppo nel reclutare persone per utilizzarli suggerisce che essi non rappresentano attualmente un’applicazione diffusa dell’intelligenza artificiale. Ma le cose potrebbero cambiare, soprattutto se la crescente disponibilità di tali servizi coincidesse con una crescente carenza di professionisti qualificati della salute mentale.

 
For Latest Updates Follow us on Google News
 

PREV I carri armati di Tel Aviv bloccano il passaggio, Gaza è totalmente isolata. “Carri armati diretti verso l’ex aeroporto” – .
NEXT RID – Rivista Italiana della Difesa – shownews – .