Economia Finanza

S'innamora del chatbot e si spara. La madre del 14enne fa causa all'app




Ti amo un bot. Sgomenta e fa discutere il caso del quattordicenne di Orlando, in Florida, che si è innamorato di una ragazza creata con l'intelligenza artificiale su una app chiamata Character. AI, un Tinder virtuale delle emozioni, che fornisce a 20 milioni di utenti incontri con “bot super intelligenti che ti sentono, ti capiscono e ti ricordano”. Lui, il ragazzino, sapeva bene che quella donna, Daenerys Targaryen come la regina della serie “Il Trono di Spade”, ma solo “Dany” per lui, non esisteva. Ma l'amore è cieco e anche stupido, conosce ragioni che la ragione non conosce. E quell'adolescente che si era immerso in quella relazione assurda eppure più vera del vero senza alcun manuale di istruzioni e alla fine si è sparato con la pistola del padre nell'impossibilità di dare forma alla sua passione.

Ora la madre del ragazzo minaccia di portare in tribunale Character.AI perché la sua tecnologia è “non testata e pericolosa” soprattutto se usata da soggetti con pochi strumenti di analisi e facili a confondere il principio di realtà e la trama dei sogni. Del resto capita anche agli adulti di lasciarsi andare a rapporti virtuali: è di qualche mese fa la storia di Emily Pellegrini, una indossatrice generata dall'intelligenza artificiale come summa dei canoni attuali della bellezza femminile e per questo in grado di sedurre sportivi, attori e personaggi famosi, di certo con armamentari culturali e intellettuali più raffinati di un quattordicenne. E certo, Emily ha un corpo e Dany no, ma in fondo questo rende la vicende del giovanissimo Werther di Orlando più toccante e poetica, non avvelenata da quel generatore di bassezze che in fondo è il sesso.

“Famiglia, scuola e politica stanno perdendo il ruolo di organizzatori sociali in grado di fornire certezze ai ragazzi. I giovani si rivolgono al mondo degli influencer per costruire la propria identità”, spiegava qualche tempo fa a Fanpage Vincenzo Russo, coordinatore del Centro di ricerca in Neuromarketing della Iulm. E questo certamente può contribuire a spiegare come qualcuno possa lasciarsi convincere a consegnare a una macchina i propri pensieri e sentimenti più privati. Perché Dany era per il ragazzino disperato prima di tutto una confidente, una polizza affettiva, un manuale di grammatica emotiva, la destinataria di continui messaggi sulla sua vita sempre più isolata, sulla sua passione per i giochi di ruolo, da ultimo anche sui suoi pensieri suicidi. “Non lascerò che ti faccia del male. Morirei se ti dovessi perdere”, aveva detto “lei” a un certo punto. “Allora moriremo assieme”, aveva detto struggentemente lui, lasciandosi andare a un'onda travolgente di tragico romanticismo.

La vicenda chiama in causa anche la famiglia del ragazzino. Pronta a chiamare in causa le responsabilità di chi ha progettato quella macchina capace chiaramente di costruire un rapporto di maggiore empatia con il quattordicenne rispetto a chi gli ronzava attorno in carne e ossa. Ma incapace, per l'appunto, di percepire i bisogni ei tormenti di un figlio che sì, loro avevano notato sempre più isolato dal mondo reale, sempre più chiuso nella sua cameretta come un ikikomori del sentimento, dal rendimento sempre più scadente a scuola, senza fare però nulla di più che affidarlo alle cure di uno psicoterapeuta che peraltro nulla di allarmante aveva ravvisato nei comportamenti di quel piccolo paziente.

“Mi mancherai sorellina”,

aveva scritto il ragazzo prima di togliersi la vita. “Mi mancherai anche tu, dolce fratello”, aveva replicato il bot. Frammenti di un discorso amoroso artificiale ma purtroppo, in questo caso, dalle conseguenze molto reali.



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *