ChatGPT ha le allucinazioni, non è uno scherzo: l’ultima novità inquietante I Sempre più inaffidabile
Quando si usa un AI si deve tenere conto delle allucinazioni, sono simile alle sviste degli esseri umani ma funzionano su schemi matematici
Le intelligenze artificiali stanno conquistando sempre più spazio nel nostro quotidiano. Annunciate come infallibili e di un’intelligenza esagerata, in realtà, dopo i primi commenti dei tecnici informatici che hanno lavorato per la costruzione di ChatGPT di OpenAI, le opinioni sono cambiate.
Le intelligenze artificiali non hanno una coscienza e vengono ‘addestrate’ attraverso schemi matematici infiniti, il momento del training è importantissimo perché attraverso di esso l’intelligenza può acquisire capacità, oppure al contrario diventare più ‘stupida’ confondendosi. Quando un’intelligenza artificiale si confonde su qualche argomento, il danno nella vita reale può essere immane perché gli esseri umani utilizzano le intelligenze per farsi aiutare anche sul lavoro.
Questi errori vengono chiamati ‘allucinazioni’ e possono far creare realtà alterate che poi vengono intese come vere dagli utenti, i quali a loro volta le utilizzano per costruire nuove verità. Ci si accorge solo in un secondo momento dell’errore, quando a volte è troppo tardi. Insomma, delle intelligenze artificiali non ci si può fidare del tutto, motivo per cui, ad oggi, è impossibile pensare che sostituiranno del tutto il lavoro umano. Ma anche per utilizzarle come aiutanti sarebbero da tenere sott’occhio.
Le allucinazioni delle intelligenze artificiali, cosa sono e perché sono pericolose
Così come l’essere umano può avere dei deficit di cognizione non riuscendo ad avere una misura di ciò che è reale, anche le IA generative come ChatGPT sperimentano delle allucinazioni che le inducono in errore. A complicare le cose c’è la difficoltà nel porre rimedio a questi strafalcioni.
Nello specifico, per allucinazione si intende una distorsione concettuale, fermo restando che le IA non hanno cognizione di causa, scrivono seguendo modelli statistici, nel senso che si basano su schemi matematici ma non sulla cognizione con coscienza, caratteristica del tutto umana.
Le intelligenze artificiali non sono così precise come si pensava: i loro dati possono essere completamente errati
Al posto di non dare risposte, le IA ne creano una parallela, gli algoritmi per l’apprendimento che possono elaborare informazioni in modo approssimativo se non del tutto errato. Questo dà adito a risposte incomplete oppure inventate sul momento pur di rispondere alla richiesta. Le AI prima di essere messe in campo vengono quindi addestrate, ma a volte anche durante gli addestramenti si possono creare degli errori, così per esempio in alcuni contesti un’AI potrebbe scambiare un orologio con un bracciale. Esempi che possono sembrare poco preoccupanti ma che in realtà traslati nel nostro quotidiano possono portare diversi problemi.
Quando un’AI viene addestrata su dati molto specifici (overfitting) diventa meno precisa a proposito di situazioni che non conosce. Ma, al contrario, se viene addestrata con dati troppo generici (overgeneralization) questa tende creare connessioni astruse tra i contesti che molto probabilmente non esistono. Tutte queste distorsioni vengono identificate come allucinazioni. Esemplare il caso di un avvocato di New York che usò dati presi dai suggerimenti della chat che poi si scoprì si trattassero di sentenze mai esistite. Tutto ciò non fa altro che creare grandi dubbi sull’efficacia dell’utilizzo delle intelligenze umane per sostituire il lavoro dell’uomo.