Le allucinazioni dell’AI si verificano quando strumenti di intelligenza artificiale generativa forniscono risposte errate, irrilevanti o inventate a domande. Un esempio significativo è l’affermazione errata del chatbot Bard di Google, riguardo alle prime immagini catturate dal Telescopio Spaziale James Webb. Tali errori possono avere gravi conseguenze, come dimostrato da due avvocati di New York sanzionati per aver citato casi fittizi generati da ChatGPT. Duncan Curtis, Senior Vice President di Sama, sottolinea che anche i modelli avanzati sperimentano allucinazioni circa il 2,5% delle volte. Pur sembrando un tasso contenuto, applicandolo a strumenti come ChatGPT, che ricevono fino a 10 milioni di domande giornaliere, si traduce in circa 250.000 errori quotidiani.
Le allucinazioni dell’AI derivano dai meccanismi intrinseci con cui i modelli generativi elaborano i contenuti. L’AI predice la parola successiva in base ai dati già disponibili, ma se non comprende appieno le informazioni, può generare risposte apparentemente corrette ma, in realtà, false. Simona Vasytė di Perfection42 segnala che nei modelli visivi l’AI può “indovinare” i pixel appropriati, il che può portare a risultati errati. Curtis osserva che i modelli di linguaggio hanno difficoltà a generalizzare informazioni nuove e che la mancanza di dati sufficienti è una delle principali cause di disfunzioni. In situazioni specifiche, come l’approvazione di mutui, i modelli possono fare assunzioni errate se privi delle informazioni corrette, portando a decisioni sbagliate.
Per ridurre le allucinazioni, è essenziale migliorare la qualità dei dataset utilizzati per l’addestramento. L’investimento in risorse per migliorare i modelli di intelligenza artificiale può contribuire a ottenere risultati più affidabili. Curtis suggerisce l’importanza di utilizzare un dataset rappresentativo e accurato, insieme a rinforzi e valutazioni continuative delle prestazioni, per mitigare i rischi di allucinazione. Un’altra strategia efficace è l’adozione del recupero della generazione aumentata (RAG), che consente di filtrare i dati pertinenti per generare risposte più accurate. Infine, il controllo umano per identificare e correggere le allucinazioni è importante, ma deve essere accompagnato da input specifici per massimizzare l’accuratezza del modello e limitare le interpretazioni errate.
Scopri le ultime innovazioni tecnologiche e porta a casa i gadget più avanzati! Clicca qui per esplorare il mondo delle tecnologie su Amazon.