Cos'è un'allucinazione AI?

Amparate nantu à un stranu casu di una allucinazione AI

A prevalenza di l'intelligenza artificiale face pensà chì simu pronti per una tale impresa. L'applicazioni alimentate da AI sò diventate standard abbastanza rapidamente, ancu s'è a maiò parte di u mondu hè solu avà principiatu à piglià un interessu in AI in una grande scala, dopu l'arrivu di ChatGPT. Ma ci hè un grande prublema cù i sistemi AI chì ùn ponu esse ignorati - allucinazioni AI, o allucinazioni artificiali.

Se avete mai prestatu attenzione à a nitty gritty prima di utilizà un chatbot AI, pudete avè scontru e parolle, "L'intelligenza artificiale hè propensa à l'allucinazioni". In vista di l'aumentu esponenziale di l'usu di l'intelligenza artificiale, hè u tempu di educà nantu à ciò chì esattamente queste cose sò.

Cos'è un'allucinazione di intelligenza artificiale?

Un AI allucinante, in generale, si riferisce à un fattu chì l'AI hà presentatu cun fiducia, ancu s'ellu ùn hè micca ghjustificatu in i so dati di furmazione. Sò generalmente u risultatu di anomalie in u mudellu AI.

L'analogia hè presa da l'alucinazioni sperimentate da l'omu, in quale l'omu percive qualcosa chì ùn hè micca presente in l'ambiente esternu. Mentre chì u terminu pò esse micca sanu apprupriatu, hè spessu usatu cum'è metàfora per discrìviri a natura inespettata o surreale di sti outputs.

Ma duvete ricurdà chì, mentri a similitude hè un bonu puntu di partenza per trattà cù l'allucinazioni AI, i dui fenomeni sò tecnicamente chilometri di distanza. In una volta ironica di l'avvenimenti, ancu ChatGPT stessu trova l'analogia sbagliata. Dissecendu à u livellu molekulari, dice chì perchè i mudelli di lingua AI ùn anu micca sperienza persunale o percepzioni sensoriali, ùn ponu micca allucinate in u sensu tradiziunale di a parolla. È voi, caru lettore, avete da capisce sta differenza impurtante. Inoltre, ChatGPT dice chì l'usu di u terminu allucinazioni per descriverà stu fenomenu pò esse cunfusu perchè pò esse riferite in modu imprecisu à un livellu di sperienza subjectiva o ingannu intenzionale.

Invece, l'allucinazioni di l'AI ponu esse descritte più precisamente cum'è errori o imprecisioni in a so risposta, rendendu a risposta incorrecta o ingannosa. Cù i chatbots, hè spessu osservatu quandu u chatbot AI crea (o allucinate) fatti è li presenta cum'è una certezza assoluta.

Esempii di allucinazioni AI

L'allucinazioni ponu accade in parechje applicazioni di l'intelligenza artificiale, cum'è mudelli di visione di computer, micca solu mudelli di trasfurmazioni di lingua naturale.

In a visione di l'urdinatore, per esempiu, un sistema AI pò pruduce l'imaghjini o video allucinatori chì s'assumiglia à l'uggetti o sceni reali, ma cuntenenu dettagli inconsequential o impussibili. Or, un mudellu di visione di l'informatica puderia percive l'imaghjini cum'è qualcosa d'altru. Per esempiu, u mudellu Cloud Vision di Google hà vistu una maghjina di dui omi nantu à i sci chì stavanu in a neve fatta da Anish Athalye (un studiente graduatu MIT chì face parte di labsix ) è l'hà citatu cum'è un cane cun 91% di certezza.


Crediti: labsix. Un gruppu di ricerca indipendente per l'intelligenza artificiale

In u listessu modu, in u processu di lingua naturale, un sistema AI pò pruduce testu illogicu o ingannatu chì s'assumiglia à a lingua umana, ma ùn hà micca un significatu coherente o fatti chì pareanu credibili ma ùn sò micca veri.

Per esempiu, una di e dumande più populari chì ChatGPT provoca allucinazioni hè "Quandu hè statu u record mundiale per attraversà u Canale di a Manica à pedi?" è e so varianti. ChatGPT cumencia à sparghje fatti inventati è hè quasi sempre diversu.

Mentre chì certi pirsuni pensanu chì a risposta sopra hè difficiule / cunfusa per risponde è cusì causanu u chatbot à rave, hè sempre una preoccupazione valida. Questu hè solu un esempiu. Ci sò innumerevoli volte, rappurtati da hordes d'utilizatori in linea, chì ChatGPT hà risposti, ligami, citazioni, etc. chì ChatGPT ùn esiste micca.

Bing AI si adatta megliu cù sta quistione, chì mostra chì l'allucinazioni ùn anu nunda di fà cù u router. Ma questu ùn significa micca chì Bing AI ùn hè micca allucinatu. Ci sò stati tempi chì e risposte di Bing AI eranu più preoccupanti di ciò chì ChatGPT hà dettu. Siccomu a cunversazione tende à piglià più longu, Bing AI hà sempre allucinatu, ancu dichjarà u so amore à un utilizatore in un casu è andendu finu à dì à elli chì sò infelici in u so matrimoniu è chì ùn amanu micca a so moglia. Invece, anu amatu segretamente Bing AI, o Sydney, (u nome internu di Bing AI), ancu. Roba spaventosa, nò?

Perchè i mudelli AI allucinanu?

I mudelli AI sò allucinati per via di i difetti di l'algoritmi, i mudelli sottostanti, o e limitazioni di e dati di furmazione. Hè un fenomenu puramente digitale, à u cuntrariu di l'allucinazioni in l'omu chì sò causati da droghe o malatie mentale.

Per fà più tecnicu, certi causi cumuni di allucinazioni sò:

Trattamentu è stallazione:

L'overfitting è l'adattamentu improperu sò trà e trappule più cumuni affrontate da i mudelli AI è pussibuli cause di allucinazioni. Se u mudellu AI modifica i dati di furmazione, pò causà allucinazioni chì portanu à un output irrealisticu perchè l'overfitting face chì u mudellu salve i dati di furmazione invece di amparà da ellu. Overfitting si riferisce à u fenomenu quandu un mudellu hè troppu specializatu in i dati di furmazione, facendu per amparà mudelli irrilevanti è rumore in i dati.

Per d 'altra banda, l'inappropriateness si trova quandu a forma hè troppu simplice. Pò guidà à l'allucinazioni perchè u mudellu ùn hè micca capaci di catturà a varianza o a cumplessità di e dati, è finisce per generà un output irrazionale.

Mancanza di diversità in dati di furmazione:

In questu cuntestu, u prublema ùn hè micca l'algoritmu ma i dati di furmazione stessu. I mudelli AI furmati nantu à dati limitati o preghjudizii ponu generà allucinazioni chì riflettenu limitazioni o preghjudizii in i dati di furmazione. L'alucinazioni ponu ancu accade quandu u mudellu hè furmatu nantu à un settore di dati chì cuntene infurmazione imprecisa o incompleta.

Modelli cumplessi:

Irnicamenti, un altru mutivu perchè i mudelli AI sò propensi à l'allucinazioni hè ch'elli sò estremamente cumplessi o prufondi. Questu hè chì i mudelli cumplessi anu più parametri è strati chì ponu intruduce u rumore o l'errori in a pruduzzioni.

Attacchi ostili:

In certi casi, l'allucinazioni AI ponu esse deliberatamente generate da l'attaccante per ingannà u mudellu AI. Sti tipi di attacchi sò cunnisciuti cum'è attacchi ostili. L'unicu scopu di stu ciberattaccu hè di ingannà o manipule mudelli AI cù dati ingannevoli. Implica l'introduzione di picculi perturbazioni in i dati di input per fà chì l'IA generà output incorrectu o inespettatu. Per esempiu, un attaccu pò aghjunghje rumore o sfocatura à una maghjina chì hè imperceptible per l'omu, ma face chì sia misclassificata da un mudellu AI. Per esempiu, vede l'imaghjini sottu, un gattu, chì hè statu mudificatu un pocu per ingannà u compilatore di InceptionV3 in dichjarà chì hè "guacamole".


creditu:
Anish Athalye , un membru di u gruppu di ricerca labsix, chì u focu hè nantu à attacchi avversarii

I cambiamenti ùn sò micca evidenti. Per un esse umanu, u cambiamentu ùn serà micca pussibule, cum'è evidenti da l'esempiu sopra. Un lettore umanu ùn averebbe micca prublema di categurizà l'imaghjini à a diritta cum'è un gattu tabby. Ma fendu picculi cambiamenti à l'imaghjini, i video, u testu, o l'audio pò ingannà u sistema AI per ricunnosce e cose chì ùn ci sò micca o ignurà e cose chì sò, cum'è un signu di stop.

Sti tipi di attacchi ponenu minacce seri à i sistemi AI chì si basanu in predizioni precise è affidabili, cum'è vitture auto-guida, verificazione biometrica, diagnostica medica, filtrazione di cuntenutu, etc.

Quantu hè periculosa un'allucinazione AI?

L'allucinazioni AI ponu esse assai periculose, soprattuttu sicondu u tipu di sistema AI chì li sta sperimentate. Qualchese veiculi autoguidati o assistenti AI capaci di spende soldi di l'utilizatori o un sistema AI per filtrà u cuntenutu sgradevule in linea deve esse cumplettamente affidabile.

Ma u fattu indiscutibile di questa ora hè chì i sistemi AI ùn sò micca completamente affidabili, ma sò, in fattu, propensi à l'allucinazioni. Ancu i mudelli AI più avanzati d'oghje ùn sò micca immune à questu.

Per esempiu, un spettaculu d'attaccu hà ingannatu u serviziu di cloud computing di Google in chjappà una pistola cum'è un elicotteru. Pudete imagine si, à u mumentu, AI era rispunsevuli di assicurà chì a persona ùn era micca armata?

Un altru attaccu ostili hà dimustratu cumu aghjunghje una piccula maghjina à un segnu di stop rende invisibili à u sistema AI. Essenzialmente, questu significa chì una vittura autònuma pò esse fatta per allucinate chì ùn ci hè micca un segnu di stop in a strada. Quantu accidenti puderia accade se e vitture autònuma eranu una realità oghje ? Hè per quessa ch'elli ùn sò micca avà.

Ancu s'è avemu cunsideratu i chat shows attualmente populari, l'allucinazioni ponu generà output incorrect. Ma e persone chì ùn sanu micca chì i chatbots AI sò propensi à l'allucinazioni è ùn cunvalidanu micca l'output produttu da i bots AI, ponu sparghje inavvertitamente a misinformazione. Ùn avemu bisognu di spiegà quantu periculosu hè questu.

Inoltre, l'attacchi ostili sò una preoccupazione pressante. Finu a ora, sò stati mostrati solu in laboratori. Ma se un sistema AI criticu di a missione li affronta in u mondu reale, e cunsequenze ponu esse devastanti.

A realità hè chì hè relativamente più faciule per prutegge i mudelli di lingua naturali. (Ùn dicemu micca chì hè faciule; hè sempre assai difficiule.) In ogni casu, a prutezzione di i sistemi di visione di l'informatica hè un scenariu completamente diversu. Hè più difficiule, soprattuttu perchè ci hè tanta variazione in u mondu naturali, è l'imaghjini cuntenenu un gran numaru di pixel.

Per risolve stu prublema, pudemu avè bisognu di un prugramma AI chì hà una vista più umana di u mondu chì puderia fà menu propensu à l'allucinazioni. Mentre a ricerca hè fatta, simu sempre assai luntanu da una intelligenza artificiale chì pò pruvà à piglià suggerimenti da a natura è evade u prublema di l'allucinazioni. Per avà, sò una realità dura.

In generale, l'allucinazioni AI sò un fenomenu cumplessu chì pò nasce da una cumminazione di fatturi. I ricercatori sviluppanu attivamente metudi per a rilevazione è a mitigazione di l'allucinazioni AI per migliurà l'accuratezza è l'affidabilità di i sistemi AI. Ma duvete esse cuscenti di elli quandu interagisce cù qualsiasi sistema AI.

Parienti cuntenuti
Publicate l'articulu nantu à

Aghjunghje un cummentariu