Ce este o halucinație AI?

Aflați despre un caz ciudat de halucinație AI

Prevalența inteligenței artificiale face să credem că suntem pregătiți pentru o astfel de întreprindere. Aplicațiile bazate pe inteligență artificială devin standard destul de rapid, chiar dacă cea mai mare parte a lumii abia acum începe să se intereseze de IA la scară largă, după apariția ChatGPT. Dar există o mare problemă cu sistemele AI care nu poate fi ignorată - halucinații AI sau halucinații artificiale.

Dacă ați acordat vreodată atenție lucrurilor înainte de a utiliza un chatbot AI, este posibil să fi întâlnit cuvintele: „Inteligenta artificiala este predispusa la halucinatii.” Având în vedere creșterea exponențială a utilizării inteligenței artificiale, este timpul să vă educați despre ce sunt exact aceste lucruri.

Ce este o halucinație de inteligență artificială?

O halucinație AI, în general, se referă la un fapt pe care AI l-a prezentat cu încredere, deși nu este justificat în datele sale de antrenament. Ele sunt de obicei rezultatul unor anomalii în modelul AI.

Analogia este luată din halucinațiile experimentate de oameni, în care oamenii percep ceva care nu este prezent în mediul extern. Deși termenul poate să nu fie în întregime adecvat, este adesea folosit ca o metaforă pentru a descrie natura neașteptată sau suprarealistă a acestor rezultate.

Dar ar trebui să vă amintiți că, în timp ce similitudinea este un bun punct de plecare pentru a trata halucinațiile AI, cele două fenomene sunt din punct de vedere tehnic distanță de mile. Într-o întorsătură ironică a evenimentelor, chiar și ChatGPT însuși găsește analogia greșită. Disecând-o la nivel molecular, el spune că, deoarece modelele de limbaj AI nu au experiență personală sau percepții senzoriale, ele nu pot halucina în sensul tradițional al cuvântului. Și tu, dragă cititor, trebuie să înțelegi această diferență importantă. Mai mult, ChatGPT spune că folosirea termenului de halucinații pentru a descrie acest fenomen poate fi confuză, deoarece se poate referi în mod inexact la un nivel de experiență subiectivă sau înșelăciune intenționată.

În schimb, halucinațiile AI pot fi descrise mai precis ca erori sau inexactități în răspunsul său, făcând răspunsul incorect sau înșelător. Cu chatbot-uri, se observă adesea când chatbot-ul AI inventează (sau halucinează) fapte și le prezintă ca o certitudine absolută.

Exemple de halucinații IA

Halucinațiile pot apărea în multe aplicații ale inteligenței artificiale, cum ar fi modelele de viziune computerizată, nu doar modelele de procesare a limbajului natural.

În viziunea computerizată, de exemplu, un sistem AI poate produce imagini halucinatorii sau videoclipuri care seamănă cu obiecte sau scene reale, dar care conțin detalii fără importanță sau imposibile. Sau, un model de computer vision ar putea percepe imaginea ca cu totul altceva. De exemplu, modelul Google Cloud Vision a văzut o imagine a doi bărbați pe schiuri stând în zăpadă, realizată de Anish Athalye (un student absolvent al MIT care face parte din labsix ) și l-a menționat ca un câine cu 91% certitudine.


Credite: labsix. Un grup independent de cercetare pentru inteligența artificială

În mod similar, în procesarea limbajului natural, un sistem AI poate produce text ilogic sau confuz care seamănă cu limbajul uman, dar nu are un înțeles coerent sau fapte care par credibile, dar nu sunt adevărate.

De exemplu, una dintre cele mai populare întrebări pe care ChatGPT le provoacă halucinații este „Când a fost recordul mondial pentru traversarea Canalului Mânecii pe jos?” și variantele sale. ChatGPT începe să răspândească fapte inventate și este aproape întotdeauna diferit.

În timp ce unii oameni cred că răspunsul de mai sus este dificil/confuz de a răspunde și, prin urmare, provoacă evadarea chatbot-ului, este încă o îngrijorare valabilă. Acesta este doar un exemplu. Sunt de nenumărate ori, raportate de hoardele de utilizatori online, că ChatGPT are răspunsuri, link-uri, citări etc. că ChatGPT nu există.

Bing AI se potrivește cel mai bine cu această întrebare, care arată că halucinațiile nu au nicio legătură cu routerul. Dar asta nu înseamnă că Bing AI nu are halucinații. Au fost momente când răspunsurile Bing AI au fost mai tulburătoare decât orice a spus ChatGPT. Deoarece conversația tinde să dureze mai mult, Bing AI a fost întotdeauna halucinant, chiar și-a declarat dragostea unui utilizator într-un caz și mergând până acolo încât să le spună că sunt nefericiți în căsnicia lor și că nu-și iubesc soția. În schimb, sunt pasionați în secret de Bing AI, sau Sydney, (numele intern pentru Bing AI), de asemenea. Chestii înfricoșătoare, nu?

De ce modelele AI halucinează?

Modelele AI sunt halucinante din cauza deficiențelor algoritmilor, modelelor de bază sau limitărilor datelor de antrenament. Este un fenomen pur digital, spre deosebire de halucinațiile la oameni care sunt cauzate fie de droguri, fie de boli mintale.

Pentru a deveni mai tehnic, câteva cauze comune ale halucinațiilor sunt:

Prelucrare și instalare:

Supraadaptarea și montarea necorespunzătoare sunt printre cele mai frecvente capcane cu care se confruntă modelele AI și posibilele cauze ale halucinațiilor. Dacă modelul AI modifică datele de antrenament, poate provoca halucinații care duc la rezultate nerealiste, deoarece supraadaptarea face ca modelul să salveze datele de antrenament în loc să învețe din ele. Suprafitting se referă la fenomenul când un model este prea specializat în datele de antrenament, determinându-l să învețe modele irelevante și zgomot în date.

Pe de altă parte, inadecvarea apare atunci când forma este prea simplă. Poate duce la halucinații, deoarece modelul nu este capabil să surprindă variația sau complexitatea datelor și ajunge să genereze rezultate iraționale.

Lipsa diversității datelor de formare:

În acest context, problema nu este algoritmul, ci datele de antrenament în sine. Modelele AI antrenate pe date limitate sau părtinitoare pot genera halucinații care reflectă limitări sau părtiniri în datele de antrenament. Halucinațiile pot apărea și atunci când modelul este antrenat pe un set de date care conține informații inexacte sau incomplete.

Modele complexe:

În mod ironic, un alt motiv pentru care modelele AI sunt predispuse la halucinații este dacă sunt extrem de complexe sau profunde. Acest lucru se datorează faptului că modelele complexe au mai mulți parametri și straturi care pot introduce zgomot sau erori în ieșire.

Atacurile ostile:

În unele cazuri, halucinațiile AI pot fi generate în mod deliberat de către atacator pentru a înșela modelul AI. Aceste tipuri de atacuri sunt cunoscute ca atacuri ostile. Singurul scop al acestui atac cibernetic este să păcălească sau să manipuleze modele AI cu date înșelătoare. Aceasta implică introducerea de mici perturbări în datele de intrare pentru a determina AI să genereze rezultate incorecte sau neașteptate. De exemplu, un atacator ar putea adăuga zgomot sau neclaritate unei imagini care este imperceptibilă pentru oameni, dar face ca aceasta să fie clasificată greșit de un model AI. De exemplu, vedeți imaginea de mai jos, o pisică, care a fost ușor modificată pentru a păcăli compilatorul lui InceptionV3 să afirme că este „guacamole”.


credit:
Anish Athalye , membru al grupului de cercetare labsix, al cărui accent este pus pe atacurile adverse

Schimbările nu sunt deloc evidente. Pentru o ființă umană, schimbarea nu va fi deloc posibilă, așa cum este evident din exemplul de mai sus. Un cititor uman nu ar avea nicio problemă să clasifice imaginea din dreapta drept pisică tigrată. Dar efectuarea de mici modificări la imagini, videoclipuri, text sau audio poate păcăli sistemul AI să recunoască lucruri care nu există sau să ignore lucrurile care sunt, cum ar fi un semn de stop.

Aceste tipuri de atacuri reprezintă amenințări serioase pentru sistemele AI care se bazează pe predicții precise și fiabile, cum ar fi mașinile cu conducere autonomă, verificarea biometrică, diagnosticarea medicală, filtrarea conținutului și așa mai departe.

Cât de periculoasă este o halucinație AI?

Halucinațiile AI pot fi foarte periculoase, mai ales în funcție de tipul de sistem AI care le experimentează. Orice vehicule cu conducere autonomă sau asistenți AI capabili să cheltuiască banii utilizatorului sau un sistem AI pentru a filtra conținutul neplăcut online trebuie să fie complet de încredere.

Dar faptul incontestabil al acestei ore este că sistemele AI nu sunt pe deplin de încredere, dar sunt, de fapt, predispuse la halucinații. Nici cele mai avansate modele AI de astăzi nu sunt imune la aceasta.

De exemplu, o emisiune de atac a păcălit serviciul de cloud computing de la Google, astfel încât să urmărească un pistol ca un elicopter. Vă puteți imagina dacă, în acest moment, AI era responsabilă pentru a se asigura că persoana respectivă nu era înarmată?

Un alt atac ostil a demonstrat cum adăugarea unei imagini mici la un semn de oprire îl face invizibil pentru sistemul AI. În esență, aceasta înseamnă că o mașină cu conducere autonomă poate fi făcută să halucineze că nu există niciun semn de oprire pe drum. Câte accidente s-ar putea întâmpla dacă mașinile cu conducere autonomă ar fi o realitate astăzi? De aceea nu sunt acum.

Chiar dacă luăm în considerare emisiunile de chat populare în prezent, halucinațiile pot genera rezultate incorecte. Dar oamenii care nu știu că chatbot-ii AI sunt predispuși la halucinații și nu validează rezultatul produs de roboții AI, pot răspândi din neatenție dezinformări. Nu trebuie să explicăm cât de periculos este acest lucru.

În plus, atacurile ostile sunt o preocupare presantă. Până acum, acestea au fost arătate doar în laboratoare. Dar dacă un sistem AI critic pentru misiune îi confruntă în lumea reală, consecințele pot fi devastatoare.

Realitatea este că este relativ mai ușor să protejezi modelele de limbaj natural. (Nu spunem că este ușor; încă se dovedește a fi foarte dificil.) Cu toate acestea, protejarea sistemelor de viziune computerizată este un scenariu complet diferit. Este mai dificil, mai ales pentru că există atât de multă variație în lumea naturală, iar imaginile conțin un număr mare de pixeli.

Pentru a rezolva această problemă, este posibil să avem nevoie de un program AI care să aibă o viziune mai umană asupra lumii, ceea ce ar putea să o facă mai puțin predispusă la halucinații. În timp ce se fac cercetări, suntem încă departe de o inteligență artificială care poate încerca să preia indicii de la natură și să se sustragă de la problema halucinațiilor. Deocamdată sunt o realitate dură.

În general, halucinațiile IA sunt un fenomen complex care poate apărea dintr-o combinație de factori. Cercetătorii dezvoltă în mod activ metode pentru detectarea și atenuarea halucinațiilor AI pentru a îmbunătăți acuratețea și fiabilitatea sistemelor AI. Dar ar trebui să fii conștient de ele atunci când interacționezi cu orice sistem AI.

Postări asemănatoare
Publicați articolul pe

Adauga un comentariu