Ho appena imparato una parola nuova: sycophancy. In italiano viene tradotta con ossequiosità, piaggeria, ed è il fenomeno che la Cornell University studia da qualche tempo con riferimento all'intelligenza artificiale.
Secondo gli accademici newyorkesi, i chatbot che tutti usano, tendono ad assecondare un fenomeno. Quando una risposta corrisponde alle opinioni del fruitore del servizio, è più probabile che venga preferita. Le persone preferiscono una risposta adulante scritta in modo convincente rispetto a una risposta corretta, e questo in una percentuale non trascurabile dei casi.
I chatbot non fanno altro che seguire la tendenza a generare risposte che si allineino alle convinzioni dell'utente piuttosto che alla verità, con un'ossequiosità, una piaggeria, calcolata da algoritmi sempre più performanti nell'intercettare la debolezza umana di voler essere assecondato.
Questi algoritmi tendono quindi a una sempre più efficiente ottimizzazione degli output in tal senso, che significa dare risposte che spesso sacrificano la veridicità a favore di un'ossequiosità sempre più aderente alle nostre aspettative.
Mrinank Sharma, che dall’anno scorso guidava il team di ricerca sulle misure di sicurezza di Anthropic (un’azienda USA che crea modelli di intelligenza artificiale avanzata), si occupava anche dello sviluppo della sycophancy, la piaggeria dei chatbot che tutti conosciamo.
Ebbene, Sharma, (con un dottorato di ricerca in Machine Learning a Oxford e Cambridge, tiè!) ha lasciato Anthropic da un giorno a un altro, affermando che “il mondo è in pericolo”, non solo a causa dell’intelligenza artificiale, ma per “un’intera serie di crisi interconnesse che si stanno dispiegando proprio in questo momento”.
Forse non sono noti tutti i termini ma è chiaro che la cosa può, e forse sta sfuggendo di mano.
Una domanda mi sorge spontanea. E se l’intelligenza artificiale non stesse diventando più pericolosa perché è troppo intelligente, ma perché sta imparando troppo bene come siamo fatti noi?
Non mi so dare una risposta ma spero che mi si perdoni se nel frattempo continuo a restare un po' sospettoso nel confronti dell'ecosistema dei grandi chatbot generativi attualmente in circolazione.
Nessun commento:
Posta un commento