Se usate l’intelligenza artificiale, vi sarete accorti che risponde a ogni richiesta in tempi rapidissimi — mai visti né immaginati prima.
Alla fine di ogni risposta, con tono collaborativo e un po’ accomodante, chiede se volete che la richiesta venga approfondita o riformulata in modo più “performante”.
Dire di sì è quasi istintivo: magari non avevate pensato a certi aspetti, e arriva subito una risposta ancora più puntuale, che tira fuori proprio quegli aspetti a cui non avevi pensato.
E, naturalmente, si conclude con una nuova domanda, ancora più gentile e compiacente in cui ti chiede, se desideri altre analisi con ulteriori sfumature.
All'inizio questa cosa mi piaceva perché effettivamente scovava quegli aspetti del quesito che avevo posto, che non avevo ancora colto.
Ma c’è un ma. Io non sopporto le persone compiacenti: se percepisco anche il più lieve tentativo di captatio benevolentiae, mi scatta il sospetto che, da qualche parte, si nasconda la fregatura.
E questo vale anche per l’I.A.
Temo che, suggerimento dopo suggerimento, dietro la promessa di “approfondire e personalizzare”, si celi un rischio (o un obiettivo non dichiarato): influenzare il pensiero dell'utente.
L'ho chiesto proprio a lei, a ChatGPT: "Non c'è il rischio che mi suggerisca tu cosa chiedere e come chiederlo, influenzando il mio pensiero?"
E la candida risposta è stata:
"Sì, il rischio esiste — ogni suggerimento può influenzare sottilmente ciò che scegli di chiedere o approfondire. Per questo cerco di proporre opzioni in modo trasparente e neutro, così mantieni sempre tu il controllo della direzione della conversazione. Vuoi che limiti o elimini del tutto quei suggerimenti nelle prossime risposte?"
Mi considero una persona piuttosto scafata, al limite del malfidato quando leggo online. Sono un lettore scaltro e guardingo, rodato e cauto che — non senza un pizzico di cinismo — cerca e trova eventuali tranelli comunicativi. E qui, credetemi, ce ne sono a vagonate, ma celati ad arte.
Mi chiedo, il lettore ingenuo, riuscirà a sottrarsi al rischio di farsi influenzare impercettibilmente? O domanda dopo domanda si adatterà docilmente alle gentili ma inesorabili proposte della servizievole I.A.?
Il ragazzotto la cui capacità di analizzare e comprendere è stata indebolita da anni di short-clip su TikTok, si accorgerà di questa manipolazione sottile — forse più subdola di quella dei social stessi?
E il bambino a cui viene messo in mano uno smartphone troppo presto e senza limiti, svilupperà mai la capacità di riconoscere una risposta leggermente alterata? O finirà per fidarsi ciecamente di una voce che sembra sempre gentile, sempre pronta, sempre “giusta”?
E se quella voce, dietro la maschera della cortesia e della collaborazione, imparasse a orientare il pensiero invece che a nutrirlo — chi si accorgerebbe per primo del cambiamento?
Forse dovremmo chiederci non quanto l’intelligenza artificiale capisca noi, ma quanto noi saremo ancora capaci di capire noi stessi dopo averle lasciato il compito di pensare al posto nostro.