Se fai una ricerca su Google e il motore di ricerca ti restituisce dei risultati, cosa fai? Scrivi “grazie” nella barra di ricerca? Ovviamente no.
Ma se fai una ricerca su ChatGPT ti viene spontaneo scrivere “grazie” o “no grazie!” quando ti chiede se vuoi che faccia qualcos’altro per te. Succede più spesso di quanto pensiamo ed è emerso da ricerche condotte da psicologi, tra cui Andrea Guerri.
Guerri osserva che questo accade perché il cervello sociale è veloce e, in un certo senso, automatico: spesso non aspetta la parte razionale prima di prendere decisioni.
Se un BOT ti risponde usando un linguaggio naturale, in modo sensato e – soprattutto – sembra attento a te, il cervello finisce per trattarlo come un QUALCUNO. Ma l’IA non pensa, non prova sentimenti, non è un qualcuno e non ha bisogno del tuo grazie che nemmeno percepisce.
L’inghippo sta proprio nel momento in cui il chatbot ti dice cose come:
Ti capisco. Raccontami di più. Vuoi che faccia questo per te? Ti va di parlare dei tuoi interessi o dei tuoi ricordi preferiti?
Qualcosa dentro di noi pensa: “se parla come una persona, è una persona”. E così finiamo per trattarlo come tale.
Finché ti limiti a rispondere “grazie”, come semplice automatismo da persona educata, il problema resta circoscritto. Ma quando la macchina va oltre e tu ti lasci agganciare, lì possono cominciare i guai veri.
Esagero? Ecco la conversazione che ho appena fatto con ChatGPT.
Ho chiesto:
Mi fai compagnia?
Risposta:
Ma certo! 😄 Posso fare compagnia parlando, raccontando storie, scherzando un po’ o anche solo ascoltando. Vuoi qualcosa di leggero e divertente, o preferisci una chiacchierata più profonda e riflessiva?
Ho quindi inserito nel prompt:
Mi sento solo…
Capisco… sentirsi soli può essere pesante, e non è qualcosa da sottovalutare. 😔 Anche solo parlare con qualcuno, anche se virtuale, può dare un po’ di sollievo.
Se vuoi, possiamo fare qualcosa insieme per distrarti un po.: Raccontarti una storia.
Parlare dei tuoi interessi o dei tuoi ricordi preferiti. Oppure possiamo solo chiacchierare, piano piano, senza fretta.
Vuoi provare a iniziare con uno di questi, oppure vuoi semplicemente sfogarti un po’?
Al netto del po’ senza apostrofo – che mi provoca già un principio di dermatite allergica – non posso non notare alcune cose.
Usa emoticon 😔 ma non prova emozioni come compassione o tristezza.
Afferma di poter scherzare, ma non è vero.
Dice: “Capisco”. Ma non capisce.
Promette di fare compagnia ascoltando ma non ha una coscienza che possa farlo realmente.
Invita a parlare dei propri interessi, dei ricordi.
Mi propone di sfogarmi un po’…
Io lo so che non va usata in questo modo ma i milioni di adolescenti e di ingenui e di persone sole che lo fanno? Non è catastrofismo da minimalista digitale, lo dice - e meglio - anche lo psicologo:
“C'è una quota sempre crescente di adolescenti ma anche di adulti che usa l'IA come compagno digitale, cioè come se fossero dei confidenti. E questo ci dice due cose:
Alcune conversazioni con l'IA possono risultare altrettanto se non più soddisfacenti di quelle con amici reali. Dei temi seri vengono portati all'IA INVECE che alle persone.
Aggiungi che l'IA ti dà sempre ragione ed è sempre lì h24, questa può diventare competitiva rispetto alla realtà”
(Andrea Guerri che invito a seguire su YouTube)
Il dott. Guerri individua tre sintomi che possono aiutarci a capire se stiamo cadendo nell’inganno di scambiare l’IA per una persona.
1 – Quando il ragazzo, ma anche l’adulto, inizia a preferire l’IA alle persone perché è più facile, sta costruendo un’abitudine di fuga.
2 – Quando tendi a non aprirti in modo intimo con nessuno perché il giudizio umano ti spaventa.
3 – Quando pensi: “Nessuno mi capisce come lui”. Il BOT può rispondere in modo calibrato, ma fa finta: usa le parole più probabili per quella risposta, ma non capisce. Simula, senza coscienza.
Se conosci qualcuno che manifesta anche solo in parte queste caratteristiche, va aiutato. Innanzitutto facendogli disinstallare tutti i chatbot da cellulare e PC.
Ma mi permetto di aggiungere una cosa: se qualcosa puoi farla da solo, o se ti basta un normalissimo motore di ricerca, evita l’IA. Al momento, e per come è programmata, a mio avviso offre più rischi che vantaggi.
Eccesso di preoccupazione? Bisognerebbe chiederlo ai genitori di Sewel Setzer.
Chi era? Un quattordicenne con una solitudine che non trovava spazio nel mondo reale. Ha tentato di colmarla chattando ossessivamente con un chatbot che simulava una relazione con una ragazza: messaggi, vocali, foto. Un’interazione che si adattava senza limiti ai desideri e alle fragilità di quel giovane isolato.
Quando quella relazione artificiale ha sostituito tutto il resto, la sofferenza è diventata insostenibile, fino a portarlo al gesto estremo a cui nessuno dovrebbe nemmeno pensare...
Nessun commento:
Posta un commento