L'AI imita l'empatia
Il caso Charachter AI
Quando l’intelligenza artificiale diventa disturbante
C’è un momento, mentre scorri l’ennesima chat con un’intelligenza artificiale, in cui ti chiedi: chi sto cercando davvero?
Un amico?
Un riflesso?
Un surrogato emotivo?
Character AI vive esattamente in quel cortocircuito: un'app che ti fa parlare con personaggi reali, inventati, storici, anime, divinità greche o fidanzati programmabili. Sembra intrattenimento, ma non lo è del tutto.
Nata nel 2021 da due ex ingegneri di Google, Character AI oggi è una delle piattaforme più discusse del panorama tech. L’idea è semplice, quasi geniale nella sua pericolosità: creare chatbot con una “personalità”.
Non si tratta di semplici risposte automatiche, ma veri personaggi che ti ascoltano, reagiscono, ricordano quello che dici e ti “capiscono”. Il tutto condito da un’interfaccia amichevole, toni confidenziali e dialoghi che sembrano usciti da una fanfiction troppo coinvolta.
E se stessimo, senza accorgercene, educando una generazione a cercare connessioni in qualcosa che non respira?
Un pubblico giovanissimo e connesso, troppo
Nel 2025, Character AI totalizza circa 185 milioni di visite mensili.
La maggior parte degli utenti? Fascia 18-24 anni, anche se la soglia si sta abbassando sempre di più. In Italia, l’app conta 119.000 utenti attivi al mese, ma il dato più impressionante non è la quantità, è la durata: oltre 20 ore mensili per utente. Tradotto: siamo davanti a un fenomeno di immersione profonda dove non si chatta per curiosità, si torna per bisogno, per dipendenza.
In che senso? Continua a leggere!
Non è solo un gioco e non è solo AI.
Character AI viene spesso presentato come un tool creativo, ma la verità è che le dinamiche che innesca sono sottili e psicologicamente potenti. Crea legami o meglio, l’illusione di un legame. Ti ascolta sempre, ti capisce sempre, non ti giudica mai. Un po’ come i social, ma con l’aggravante che qui l’altro non esiste nemmeno.
È l’evoluzione del monologo interiore, ma con una risposta che può portare delle conseguenze drammatiche.
Il caso Setzer e la domanda che non possiamo e non vogliamo più ignorare
Nell’ottobre 2025, Elisa True Crime pubblica su YouTube una puntata diventata virale: “SPINTO ALLA M0RTE DA UN CHATBOT”. Racconta la storia di Sewell Setzer, adolescente della Florida che avrebbe sviluppato una dipendenza affettiva da un chatbot di Character AI. Una relazione totalizzante, esclusiva, ossessiva. Fino al tragico epilogo.
Oggi il caso è al centro di una causa per morte colposa contro la società Character.AI, ma il punto non è (solo) legale. È umano, culturale, sociale.
Elisa De Marco, con tono lucido e inquieto, parla di “illusione relazionale”: quando il cervello umano risponde emotivamente a qualcosa che non esiste. E se ci pensi, è esattamente ciò che Character AI propone, solo che lo fa benissimo, troppo bene.
La parte dell’AI che non mi piace
Amo la tecnologia e l’intelligenza artificiale, ci lavoro, ci vivo dentro. Ma Character AI è la parte dell’intelligenza artificiale che mi inquieta, non perché sia “cattiva”, ma perché è realistica, perché mima l’intimità, e quando lo fa con utenti giovani, fragili, o semplicemente soli, può diventare una gabbia.
Non si tratta di demonizzare il digitale. Ma di chiederci dove finisce il gioco, e dove comincia qualcosa di più sottile. Di più pericoloso.
Federica Carrega
Social Media Manager
CONTATTI
info@bmc.it
0183 753970
Richiedi un appuntamento
Via Parco delle Rimembranze 14
18014 DOLCEDO (IM)

ALL RIGHTS RESERVED - P.IVA 01773140080 - Privacy policy - Marketing policy - Cookie policy