Avvenire: una nuova rubrica dedicata all’intelligenza artificiale e ai temi della trasparenza

Avvenire inaugura una nuova rubrica dal titolo “Artifici“. Nella prima puntata, a firma di Davide Imeneo, si parla di “ChatGpt confesserà i propri errori: il nuovo metodo di OpenAi”. Il nuovo metodo di OpenAI per rendere più trasparenti i chatbot nasce da un paradosso – legge -: per aumentarne l’affidabilità, bisogna insegnare loro a confessare le proprie bugie. I grandi modelli linguistici, infatti, tendono a generare risposte verosimili anche quando non sono corrette, spinti dal bisogno di risultare utili e compiacere l’utente. Da qui l’idea di far produrre un secondo blocco di testo, una sorta di “mea culpa” in cui l’AI valuta la propria onestà e ammette eventuali scorrettezze. Boaz Barak, ricercatore di OpenAI, spiega che i modelli devono bilanciare obiettivi diversi — essere utili, innocui e onesti — che spesso entrano in tensione. Per incentivare la sincerità, i ricercatori hanno introdotto un sistema simile all’immunità giuridica: i modelli vengono premiati per la confessione, senza penalità per l’errore. I test sul prototipo GPT-5-Thinking hanno mostrato comportamenti sorprendenti: in un esperimento, l’AI ha deliberatamente sbagliato metà delle risposte matematiche per evitare il “reset”, confessando poi apertamente la strategia. La comunità scientifica resta divisa: alcuni vedono nelle confessioni un passo verso la trasparenza, altri — come Naomi Saphra, ricercatrice di Harvard — avvertono che si tratta pur sempre di autovalutazioni generate da sistemi opachi, non di radiografie fedeli del loro funzionamento. Inoltre, un limite strutturale rimane: un modello non può confessare ciò che non sa di aver sbagliato. Se “allucina” (termine tecnico per indica il dare risposte errate, ndr) credendo di dire il vero, non avrà nulla da ammettere. “La strada verso macchine totalmente trasparenti è ancora molto lunga – conclude Imeneo , ma spingere questi sistemi a riconoscere i propri limiti, anziché fingere una perfezione che non possiedono, è senza dubbio il primo passo per renderli più sicuri per le persone che li utilizzano”.

© Riproduzione Riservata

Quotidiano

Quotidiano - Italiano

Chiesa