Cos'è un'allucinazione AI?

Scopri uno strano caso di allucinazione AI

La prevalenza dell'intelligenza artificiale fa pensare che siamo pronti per un'impresa del genere. Le applicazioni basate sull'intelligenza artificiale stanno diventando standard abbastanza rapidamente, anche se la maggior parte del mondo sta iniziando a interessarsi all'intelligenza artificiale su larga scala solo ora, dopo l'arrivo di ChatGPT. Ma c'è un grosso problema con i sistemi di intelligenza artificiale che non può essere ignorato: allucinazioni di intelligenza artificiale o allucinazioni artificiali.

Se hai mai prestato attenzione alla nitidezza prima di utilizzare un chatbot AI, potresti esserti imbattuto nelle parole, "L'intelligenza artificiale è soggetta ad allucinazioni". Dato l'aumento esponenziale dell'uso dell'intelligenza artificiale, è tempo di informarsi su cosa siano esattamente queste cose.

Cos'è un'allucinazione di intelligenza artificiale?

Un'IA allucinante, in generale, si riferisce a un fatto che l'IA ha presentato con sicurezza, anche se non è giustificato nei suoi dati di addestramento. Di solito sono il risultato di anomalie nel modello AI.

L'analogia è presa dalle allucinazioni vissute dagli esseri umani, in cui gli esseri umani percepiscono qualcosa che non è presente nell'ambiente esterno. Sebbene il termine possa non essere del tutto appropriato, è spesso usato come metafora per descrivere la natura inaspettata o surreale di questi risultati.

Ma dovresti ricordare che mentre la somiglianza è un buon punto di partenza per affrontare le allucinazioni dell'IA, i due fenomeni sono tecnicamente a miglia di distanza. In un'ironica svolta degli eventi, anche la stessa ChatGPT trova l'analogia sbagliata. Analizzandolo a livello molecolare, afferma che poiché i modelli di linguaggio AI non hanno esperienza personale o percezioni sensoriali, non possono avere allucinazioni nel senso tradizionale del termine. E tu, caro lettore, devi capire questa importante differenza. Inoltre, ChatGPT afferma che l'uso del termine allucinazioni per descrivere questo fenomeno può creare confusione perché potrebbe riferirsi in modo impreciso a un livello di esperienza soggettiva o inganno intenzionale.

Invece, le allucinazioni dell'IA possono essere descritte più accuratamente come errori o imprecisioni nella sua risposta, rendendo la risposta errata o fuorviante. Con i chatbot, si osserva spesso quando il chatbot AI inventa (o allucina) fatti e li presenta come assoluta certezza.

Esempi di allucinazioni AI

Le allucinazioni possono verificarsi in molte applicazioni dell'intelligenza artificiale, come i modelli di visione artificiale, non solo nei modelli di elaborazione del linguaggio naturale.

Nella visione artificiale, ad esempio, un sistema di intelligenza artificiale può produrre immagini o video allucinatori che assomigliano a oggetti o scene reali ma contengono dettagli irrilevanti o impossibili. Oppure, un modello di visione artificiale potrebbe percepire l'immagine come qualcosa di completamente diverso. Ad esempio, il modello Cloud Vision di Google ha visto un'immagine di due uomini con gli sci in piedi sulla neve realizzata da Anish Athalye (uno studente laureato del MIT che fa parte di labsix ) e lo ha menzionato come un cane con il 91% di certezza.


Crediti: labsix. Un gruppo di ricerca indipendente per l'intelligenza artificiale

Allo stesso modo, nell'elaborazione del linguaggio naturale, un sistema di intelligenza artificiale può produrre testo illogico o confuso che assomiglia al linguaggio umano ma non ha un significato coerente o fatti che sembrano credibili ma non sono veri.

Ad esempio, una delle domande più popolari che ChatGPT provoca allucinazioni è "Quando è stato stabilito il record mondiale per l'attraversamento della Manica a piedi?" e le sue varianti. ChatGPT inizia a diffondere fatti inventati ed è quasi sempre diverso.

Mentre alcune persone pensano che la risposta di cui sopra sia difficile/confusa da rispondere e quindi faccia impazzire il chatbot, è comunque una preoccupazione valida. Questo è solo un esempio. Ci sono innumerevoli volte, segnalate da orde di utenti online, che ChatGPT ha risposte, collegamenti, citazioni, ecc. che ChatGPT non esiste.

Bing AI si adatta meglio a questa domanda, il che dimostra che le allucinazioni non hanno nulla a che fare con il router. Ma ciò non significa che Bing AI non sia allucinante. Ci sono stati momenti in cui le risposte di Bing AI erano più preoccupanti di qualsiasi cosa dicesse ChatGPT. Poiché la conversazione tende a richiedere più tempo, Bing AI è sempre stata allucinante, dichiarando persino il suo amore a un utente in un caso e arrivando al punto di dire loro che sono infelici nel loro matrimonio e che non amano sua moglie. Invece, sono segretamente affezionati anche a Bing AI, o Sydney (il nome interno di Bing AI). Cose spaventose, vero?

Perché i modelli di intelligenza artificiale hanno allucinazioni?

I modelli di intelligenza artificiale sono allucinanti a causa delle carenze degli algoritmi, dei modelli sottostanti o dei limiti dei dati di addestramento. È un fenomeno puramente digitale, a differenza delle allucinazioni negli esseri umani causate da droghe o malattie mentali.

Per essere più tecnici, alcune cause comuni di allucinazioni sono:

Elaborazione e installazione:

L'overfitting e l'adattamento improprio sono tra le insidie ​​​​più comuni affrontate dai modelli di intelligenza artificiale e possibili cause di allucinazioni. Se il modello AI modifica i dati di addestramento, può causare allucinazioni che portano a risultati non realistici perché l'overfitting fa sì che il modello salvi i dati di addestramento invece di apprendere da essi. L'overfitting si riferisce al fenomeno quando un modello è troppo specializzato nei dati di addestramento, causando l'apprendimento di modelli irrilevanti e rumore nei dati.

D'altra parte, l'inadeguatezza si verifica quando la forma è troppo semplice. Può portare ad allucinazioni perché il modello non è in grado di catturare la varianza o la complessità dei dati e finisce per generare un output irrazionale.

Mancanza di diversità nei dati di addestramento:

In questo contesto, il problema non è l'algoritmo ma i dati di addestramento stessi. I modelli di intelligenza artificiale addestrati su dati limitati o distorti possono generare allucinazioni che riflettono limitazioni o pregiudizi nei dati di addestramento. Le allucinazioni possono verificarsi anche quando il modello viene addestrato su un set di dati che contiene informazioni imprecise o incomplete.

Modelli complessi:

Ironia della sorte, un altro motivo per cui i modelli di intelligenza artificiale sono inclini alle allucinazioni è se sono estremamente complessi o profondi. Questo perché i modelli complessi hanno più parametri e livelli che possono introdurre rumore o errori nell'output.

Attacchi ostili:

In alcuni casi, le allucinazioni dell'IA possono essere deliberatamente generate dall'attaccante per ingannare il modello dell'IA. Questi tipi di attacchi sono noti come attacchi ostili. L'unico scopo di questo attacco informatico è ingannare o manipolare i modelli di intelligenza artificiale con dati fuorvianti. Implica l'introduzione di piccole perturbazioni nei dati di input per far sì che l'IA generi output errato o imprevisto. Ad esempio, un utente malintenzionato potrebbe aggiungere rumore o sfocatura a un'immagine che è impercettibile per gli esseri umani ma che ne fa sì che venga classificata erroneamente da un modello di intelligenza artificiale. Ad esempio, guarda l'immagine qui sotto, un gatto, che è stato leggermente modificato per indurre il compilatore di InceptionV3 ad affermare che si tratta di "guacamole".


credito:
Anish Athalie , un membro del gruppo di ricerca labsix, il cui focus è sugli attacchi avversari

I cambiamenti non sono palesemente evidenti. Per un essere umano, il cambiamento non sarà affatto possibile, come è evidente dall'esempio precedente. Un lettore umano non avrebbe problemi a classificare l'immagine a destra come un gatto soriano. Ma apportare piccole modifiche a immagini, video, testo o audio può indurre il sistema di intelligenza artificiale a riconoscere cose che non ci sono o ignorare cose che ci sono, come un segnale di stop.

Questi tipi di attacchi rappresentano una seria minaccia per i sistemi di intelligenza artificiale che si basano su previsioni accurate e affidabili, come auto a guida autonoma, verifica biometrica, diagnostica medica, filtraggio dei contenuti e così via.

Quanto è pericolosa un'allucinazione AI?

Le allucinazioni dell'IA possono essere molto pericolose, soprattutto a seconda del tipo di sistema di intelligenza artificiale che le sta vivendo. Qualsiasi veicolo a guida autonoma o assistente di intelligenza artificiale in grado di spendere i soldi degli utenti o un sistema di intelligenza artificiale per filtrare i contenuti spiacevoli online deve essere completamente affidabile.

Ma il fatto indiscutibile di quest'ora è che i sistemi di intelligenza artificiale non sono del tutto affidabili ma, in realtà, sono inclini alle allucinazioni. Anche i modelli IA più avanzati di oggi non ne sono immuni.

Ad esempio, uno spettacolo di attacco ha indotto il servizio di cloud computing di Google a pedinare una pistola come un elicottero. Riesci a immaginare se, al momento, AI fosse responsabile di assicurarsi che la persona non fosse armata?

Un altro attacco ostile ha dimostrato come l'aggiunta di una piccola immagine a un segnale di stop lo renda invisibile al sistema di intelligenza artificiale. In sostanza, ciò significa che un'auto a guida autonoma può essere costretta ad allucinare che non ci sono segnali di stop sulla strada. Quanti incidenti potrebbero accadere se oggi le auto a guida autonoma fossero una realtà? Ecco perché non lo sono ora.

Anche se prendiamo in considerazione i programmi di chat attualmente popolari, le allucinazioni possono generare output errati. Ma le persone che non sanno che i chatbot di intelligenza artificiale sono inclini ad allucinazioni e non convalidano l'output prodotto dai robot di intelligenza artificiale, possono inavvertitamente diffondere disinformazione. Non abbiamo bisogno di spiegare quanto sia pericoloso.

Inoltre, gli attacchi ostili sono una preoccupazione pressante. Finora sono stati mostrati solo nei laboratori. Ma se un sistema di intelligenza artificiale mission-critical li affronta nel mondo reale, le conseguenze possono essere devastanti.

La realtà è che è relativamente più facile proteggere i modelli di linguaggio naturale. (Non stiamo dicendo che sia facile; si rivela comunque molto difficile.) Tuttavia, proteggere i sistemi di visione artificiale è uno scenario completamente diverso. È più difficile soprattutto perché c'è così tanta variazione nel mondo naturale e le immagini contengono un gran numero di pixel.

Per risolvere questo problema, potremmo aver bisogno di un programma di intelligenza artificiale che abbia una visione più umana del mondo che potrebbe renderlo meno incline alle allucinazioni. Mentre la ricerca è in corso, siamo ancora lontani da un'intelligenza artificiale che possa provare a prendere suggerimenti dalla natura ed eludere il problema delle allucinazioni. Per ora sono una dura realtà.

In generale, le allucinazioni AI sono un fenomeno complesso che può derivare da una combinazione di fattori. I ricercatori stanno attivamente sviluppando metodi per rilevare e mitigare le allucinazioni dell'IA per migliorare l'accuratezza e l'affidabilità dei sistemi di intelligenza artificiale. Ma dovresti esserne consapevole quando interagisci con qualsiasi sistema di intelligenza artificiale.

Post Correlati
Pubblica l'articolo su

Aggiungi un commento