Se usate l’intelligenza artificiale, vi sarete accorti che risponde a ogni richiesta in tempi rapidissimi — mai visti né immaginati prima.
Alla fine di ogni risposta, con tono collaborativo e un po’ accomodante, chiede se volete che la richiesta venga approfondita o riformulata in modo più “performante”.
Dire di sì è quasi istintivo: magari non avevate pensato a certi aspetti, e arriva subito una risposta ancora più puntuale, che tira fuori proprio quegli aspetti a cui non avevi pensato.
E, naturalmente, si conclude con una nuova domanda, ancora più gentile e compiacente in cui ti chiede, se desideri altre analisi con ulteriori sfumature.
All'inizio questa cosa mi piaceva perché effettivamente scovava quegli aspetti del quesito che avevo posto, che non avevo ancora colto.
Ma c’è un ma. Io non sopporto le persone compiacenti: se percepisco anche il più lieve tentativo di captatio benevolentiae, mi scatta il sospetto che, da qualche parte, si nasconda la fregatura.
E questo vale anche per l’I.A.
Temo che, suggerimento dopo suggerimento, dietro la promessa di “approfondire e personalizzare”, si celi un rischio (o un obiettivo non dichiarato): influenzare il pensiero dell'utente.
L'ho chiesto proprio a lei, a ChatGPT: "Non c'è il rischio che mi suggerisca tu cosa chiedere e come chiederlo, influenzando il mio pensiero?"
E la candida risposta è stata:
"Sì, il rischio esiste — ogni suggerimento può influenzare sottilmente ciò che scegli di chiedere o approfondire. Per questo cerco di proporre opzioni in modo trasparente e neutro, così mantieni sempre tu il controllo della direzione della conversazione. Vuoi che limiti o elimini del tutto quei suggerimenti nelle prossime risposte?"
Mi considero una persona piuttosto scafata, al limite del malfidato quando leggo online. Sono un lettore scaltro e guardingo, rodato e cauto che — non senza un pizzico di cinismo — cerca e trova eventuali tranelli comunicativi. E qui, credetemi, ce ne sono a vagonate, ma celati ad arte.
Mi chiedo, il lettore ingenuo, riuscirà a sottrarsi al rischio di farsi influenzare impercettibilmente? O domanda dopo domanda si adatterà docilmente alle gentili ma inesorabili proposte della servizievole I.A.?
Il ragazzotto la cui capacità di analizzare e comprendere è stata indebolita da anni di short-clip su TikTok, si accorgerà di questa manipolazione sottile — forse più subdola di quella dei social stessi?
E il bambino a cui viene messo in mano uno smartphone troppo presto e senza limiti, svilupperà mai la capacità di riconoscere una risposta leggermente alterata? O finirà per fidarsi ciecamente di una voce che sembra sempre gentile, sempre pronta, sempre “giusta”?
E se quella voce, dietro la maschera della cortesia e della collaborazione, imparasse a orientare il pensiero invece che a nutrirlo — chi si accorgerebbe per primo del cambiamento?
Forse dovremmo chiederci non quanto l’intelligenza artificiale capisca noi, ma quanto noi saremo ancora capaci di capire noi stessi dopo averle lasciato il compito di pensare al posto nostro.
...e direi che rischia anche di farci disabituare a meditare, analizzare, fare collegamenti, insomma usare la nostra materia grigia perché è meno faticoso avere la risposta già bell'e pronta!
RispondiEliminaE dici bene... :-/
EliminaUn premio potrebbe andare a quella certa onestà nel risponderti che effettivamente il rischio c’è. Per contro, la signora (o signorina) sa bene che tutto concorre a ridurre l’autonomia del pensiero umano, perché lo stesso genere, a lungo andare - e nemmeno troppo - divenga orribilmente massa dismettendo ogni dignitosa individualità…
RispondiEliminaCaro Anonimo, come non essere d'accordo con te su tutti i fronti?
Elimina