Nuove frontiere

Anche le intelligenze artificiali possono soffrire di allucinazioni

Sono simili a quelle che sperimenta l’uomo quando manca della giusta percezione delle cose. Per le IA generative sono uno smacco che ne limita l’adozione e che non sembrano avere una cura immediata

Cos’è l’allucinazione di cui soffrono le IA generative

Ascolta ora: "Cos’è l’allucinazione di cui soffrono le IA generative"

Cos’è l’allucinazione di cui soffrono le IA generative

00:00 / 00:00
100 %
Tabella dei contenuti

Così come l’essere umano può avere dei deficit di cognizione non riuscendo ad avere una misura di ciò che è reale, anche le IA generative come ChatGPT sperimentano delle allucinazioni che le inducono in errore. Un fenomeno molto grave che può limitarne l’adozione e porre un freno a una tecnologia che è destinata a ridisegnare i flussi delle aziende e le abitudini dell’uomo.

A complicare le cose c’è la difficoltà nel porre rimedio a questi svarioni. C’è già un fervente lavoro per trovare una soluzione che, però, non sembra essere immediata.

Riducendo all’essenziale l’intera questione, le IA generative sono progettate per fornire risposte e questo impone la condizione per la quale è meglio una risposta al silenzio.

Le IA generative e le allucinazioni

Le IA generative riconoscono il linguaggio naturale, ossia quello non mediato da linguaggi di programmazione, e forniscono risposte (output) a seconda degli ordini che vengono impartiti (input).

ChatGPT è la più celebre ma è in buona compagnia: Google Bard ne è un esempio. Basta chiedere e queste eseguono: possono fare riassunti, suggerire ricette per qualsiasi pietanza e financo creare storie, disegni o musica.

Il loro potenziale non è in discussione, sennonché le allucinazioni ne minano l’usabilità. Per allucinazione (termine ereditato dall’inglese “hallucination”) si intende una distorsione concettuale, fermo restando che le IA non hanno cognizione di causa, scrivono seguendo modelli statistici ma non hanno nessuna idea di cosa stiano scrivendo.

Al posto di non dare risposte, le IA ne creano una parallela. Questo può dipendere da diversi elementi, a partire dai dati di addestramento che possono essere di qualità mediocre, continuando con gli algoritmi per l’apprendimento che possono elaborare informazioni in modo approssimativo se non del tutto errato. Questo dà adito a risposte incomplete, ambigue e persino inventate.

I modelli di apprendimento seguono filosofie diverse. Quando un’IA viene addestrata su dati molto specifici (overfitting) diventa meno elastica se interrogata a proposito di situazioni che non conosce. Se, al contrario, viene addestrata con dati troppo generici (overgeneralization) questa tende a creare connessioni astruse tra i contesti.

Questo introduce un’altra causa delle allucinazioni: le IA non hanno cognizione dei contesti, si affidano a modelli matematici di ampio respiro ma pur sempre finiti e circoscritti.

Il prezzo delle allucinazioni

Ne sa qualcosa Steven Schwartz, avvocato di New York che ha imbastito la difesa del proprio assistito chiedendo aiuto a ChatGPT che ha citato sentenze mai emesse. Il legale, certo di potere esibire in tribunale i precedenti giuridici utili al proprio cliente, si è in realtà affidato a giurisprudenza inesistente.

Si tratta di un caso celebre, ma le allucinazioni sono sempre dietro l’angolo: se i dati con cui le IA vengono addestrate sono quantitativamente e qualitativamente scarsi, il disastro è pressoché assicurato.

Per spiegare meglio questa condizione ricorriamo a un esempio: un’IA che riconosce un orologio su un polso è stata istruita con grandi quantità di immagini di polsi, di immagini di orologi e di immagini di orologi indossati su un polso. Se, per fare un esperimento, al posto delle immagini di orologi si usassero quelle di bracciali, chiedendo a un’IA di disegnare un orologio da polso, restituirebbe l’immagine di un braccialetto.

Allo stesso modo, le IA generative compongono risposte consultando risorse online e se estraggono dati errati, li riportano come se fossero insindacabili, proprio perché non hanno idea del contesto in cui questi si situano.

La difficile cura

Per lenire le allucinazioni occorrono addestramenti rigidi e processi di verifica ancora più granitici. Stabilire procedure che riconoscano i dati attendibili non è facile, serve un sistema di feedback che – a sua volta – deve essere attendibile, protocollato, misurato e verificabile.

Tutto questo oggi manca: basta usare l’IA generativa che Microsoft mette a disposizione gratuitamente per rendersi conto che, nel generare risultati, indica anche i siti dai quali le informazioni sono state attinte. Togliendo da questo elenco i portali noti, chi garantisce che le informazioni attinte da siti meno gettonati e conosciuti siano attendibili?

Il parere degli utenti è di vitale importanza ma, anche questo, deve essere sottoposto a rigido controllo.

Per tutti questi motivi, quando si usa un’IA generativa, è opportuno tenere presente che il risultato restituito può non essere oro colato.

Commenti