Pubblicato online il nostro articolo "Hacking IA" scritto per il n. 25 de La Ricerca Loescher.
"Un testo generato da un LLM può essere stupefacente. Eppure, a uno sguardo più attento, non di rado si scoprono “errori” surreali, affermazioni deliranti, derive semantiche. Vengono chiamate “allucinazioni” della macchina (termine quanto mai scorretto). Il professore attento e lo studente scrupoloso possono individuare queste derive e sistemarle, ma è facile che l’attenzione dell’umano se ne faccia sfuggire qualcuna. Gradualmente queste “deviazioni”, deliri delle macchine, potrebbero diventare dati di base per nuovi allenamenti dei futuri sistemi, oltre a essere spacciate come informazioni; potrebbero quindi modificare l’infosfera in un modo tale che non sarà più possibile distinguere il vero dal falso, o comunque sarà difficilissimo, richiederà tempi lunghi, analisi minuziose, grande potenza di calcolo e sistemi forensi sempre più complessi. Dalle stelle della creatività umana alle stalle di una lotta tra macchine, fra quelle che delirano e quelle dovrebbero individuare i deliri, con umani inebetiti che cercano vanamente di destreggiarsi, di imbrogliare e arrabattare domande per condizionare sistemi che non comprendono.
Ma è stato mai veramente possibile distinguere il vero dal falso?"
Hacking IA: Una prospettiva hacker sull'Intelligenza Artificiale, articolo di Agnese Trocchi e Carlo Milani dal numero 25 de "La Ricerca".