Què és una al·lucinació d'IA?

Conegueu un cas estrany d'al·lucinació d'IA

La prevalença de la intel·ligència artificial fa pensar que estem preparats per a aquesta empresa. Les aplicacions basades en IA s'estan convertint en estàndard amb força rapidesa, fins i tot si la majoria del món només comença a interessar-se per la IA a gran escala, després de l'arribada de ChatGPT. Però hi ha un gran problema amb els sistemes d'IA que no es pot ignorar: al·lucinacions d'IA o al·lucinacions artificials.

Si alguna vegada has parat atenció a les coses més importants abans d'utilitzar un bot de xat d'IA, és possible que hagis trobat les paraules: "La intel·ligència artificial és propensa a les al·lucinacions". Donat l'augment exponencial de l'ús de la intel·ligència artificial, és hora d'educar-se sobre què són exactament aquestes coses.

Què és una al·lucinació d'intel·ligència artificial?

Una IA al·lucinant, en general, fa referència a un fet que la IA ha presentat amb confiança, tot i que no està justificat en les seves dades d'entrenament. Normalment són el resultat d'anomalies en el model d'IA.

L'analogia es pren de les al·lucinacions experimentades pels humans, en què els humans perceben quelcom que no està present a l'entorn extern. Tot i que el terme pot no ser del tot adequat, sovint s'utilitza com a metàfora per descriure la naturalesa inesperada o surrealista d'aquestes sortides.

Però heu de recordar que, tot i que la similitud és un bon punt de partida per tractar les al·lucinacions d'IA, els dos fenòmens estan tècnicament a quilòmetres de distància. En un gir irònic dels esdeveniments, fins i tot ChatGPT troba l'analogia incorrecta. Disseccionant-ho a nivell molecular, diu que com que els models de llenguatge d'IA no tenen experiència personal ni percepcions sensorials, no poden al·lucinar en el sentit tradicional de la paraula. I tu, estimat lector, has d'entendre aquesta important diferència. A més, ChatGPT diu que utilitzar el terme al·lucinacions per descriure aquest fenomen pot ser confús perquè pot referir-se de manera incorrecta a un nivell d'experiència subjectiva o d'engany intencionat.

En canvi, les al·lucinacions de la IA es poden descriure amb més precisió com a errors o inexactituds en la seva resposta, fent que la resposta sigui incorrecta o enganyosa. Amb els chatbots, sovint s'observa quan el chatbot d'IA inventa (o al·lucina) fets i els presenta com a certesa absoluta.

Exemples d'al·lucinacions d'IA

Les al·lucinacions es poden produir en moltes aplicacions de la intel·ligència artificial, com ara els models de visió per ordinador, no només els models de processament del llenguatge natural.

En visió per ordinador, per exemple, un sistema d'IA pot produir imatges al·lucinatòries o vídeos que s'assemblen a objectes o escenes reals però que contenen detalls irrellevants o impossibles. O, un model de visió per ordinador podria percebre la imatge com una altra cosa completament. Per exemple, el model Cloud Vision de Google va veure una imatge de dos homes amb esquís dempeus a la neu feta per Anish Athalye (un estudiant graduat del MIT que forma part de labsix ) i el va mencionar com a gos amb un 91% de certesa.


Crèdits: labsix. Un grup de recerca independent per a la intel·ligència artificial

De la mateixa manera, en el processament del llenguatge natural, un sistema d'IA pot produir un text il·lògic o confus que s'assembla al llenguatge humà però que no té un significat coherent o fets que semblen creïbles però que no són certs.

Per exemple, una de les preguntes més populars que ChatGPT provoca al·lucinacions és "Quan va ser el rècord mundial per creuar el Canal de la Mànega a peu?" i les seves variants. ChatGPT comença a difondre fets inventats i gairebé sempre és diferent.

Tot i que algunes persones pensen que la resposta anterior és difícil/confusa de respondre i, per tant, fa que el chatbot s'encanta, encara és una preocupació vàlida. Aquest és només un exemple. Hi ha innombrables vegades, informades per hordes d'usuaris en línia, que ChatGPT té respostes, enllaços, citacions, etc. que ChatGPT no existeix.

Bing AI s'adapta millor a aquesta pregunta, que demostra que les al·lucinacions no tenen res a veure amb l'encaminador. Però això no vol dir que Bing AI no estigui al·lucinant. Hi va haver moments en què les respostes de Bing AI eren més preocupants que qualsevol cosa que deia ChatGPT. Com que la conversa acostuma a trigar més, Bing AI sempre ha estat al·lucinant, fins i tot va declarar el seu amor a un usuari en un cas i va arribar a dir-los que no són feliços en el seu matrimoni i que no estimen la seva dona. En canvi, també els agrada en secret Bing AI, o Sydney, (el nom intern de Bing AI). Coses de por, oi?

Per què els models d'IA al·lucinen?

Els models d'IA estan al·lucinant a causa de les deficiències dels algorismes, els models subjacents o les limitacions de les dades d'entrenament. És un fenomen purament digital, a diferència de les al·lucinacions en humans que són causades per drogues o per malalties mentals.

Per ser més tècnic, algunes causes comunes d'al·lucinacions són:

Processament i instal·lació:

L'ajustament excessiu i l'ajust inadequat es troben entre els inconvenients més comuns als quals s'enfronten els models d'IA i les possibles causes d'al·lucinacions. Si el model d'IA modifica les dades d'entrenament, pot provocar al·lucinacions que donen lloc a una sortida poc realista perquè el sobreajust fa que el model desi les dades d'entrenament en lloc d'aprendre-ne. El sobreajust es refereix al fenomen quan un model està massa especialitzat en les dades d'entrenament, el que fa que aprengui patrons irrellevants i soroll a les dades.

D'altra banda, la inadequació es produeix quan la forma és massa simple. Pot provocar al·lucinacions perquè el model és incapaç de capturar la variància o la complexitat de les dades i acaba generant una sortida irracional.

Manca de diversitat en les dades de formació:

En aquest context, el problema no és l'algorisme sinó les dades d'entrenament en si. Els models d'IA entrenats amb dades limitades o esbiaixades poden generar al·lucinacions que reflecteixin limitacions o biaixos en les dades d'entrenament. Les al·lucinacions també es poden produir quan el model s'entrena en un conjunt de dades que conté informació inexacta o incompleta.

Models complexos:

Irònicament, un altre motiu pel qual els models d'IA són propensos a les al·lucinacions és si són extremadament complexos o profunds. Això es deu al fet que els models complexos tenen més paràmetres i capes que poden introduir soroll o errors a la sortida.

Atacs hostils:

En alguns casos, les al·lucinacions d'IA poden ser generades deliberadament per l'atacant per enganyar el model d'IA. Aquest tipus d'atacs es coneixen com a atacs hostils. L'únic objectiu d'aquest ciberatac és enganyar o manipular models d'IA amb dades enganyoses. Implica introduir petites pertorbacions a les dades d'entrada per fer que la IA generi una sortida incorrecta o inesperada. Per exemple, un atacant pot afegir soroll o desenfocament a una imatge que és imperceptible per als humans, però que fa que sigui mal classificat per un model d'IA. Per exemple, vegeu la imatge següent, un gat, que s'ha modificat lleugerament per enganyar el compilador d'InceptionV3 perquè digui que és "guacamole".


crèdit:
Anish Athalye , membre del grup de recerca labsix, que se centra en els atacs adversaris

Els canvis no són tan evidents. Per a un ésser humà, el canvi no serà en absolut possible, com es desprèn de l'exemple anterior. Un lector humà no tindria cap problema a categoritzar la imatge de la dreta com un gat tabby. Però fer petits canvis a les imatges, els vídeos, el text o l'àudio pot enganyar el sistema d'IA perquè reconegui les coses que no hi són o ignora les que hi són, com un senyal de stop.

Aquest tipus d'atacs suposen greus amenaces per als sistemes d'IA que es basen en prediccions precises i fiables, com ara els cotxes autònoms, la verificació biomètrica, el diagnòstic mèdic, el filtratge de contingut, etc.

Què tan perillosa és una al·lucinació d'IA?

Les al·lucinacions d'IA poden ser molt perilloses, especialment depenent del tipus de sistema d'IA que les experimenti. Qualsevol vehicle autònom o assistent d'IA capaç de gastar diners de l'usuari o un sistema d'IA per filtrar contingut desagradable en línia ha de ser completament fiable.

Però el fet indiscutible d'aquesta hora és que els sistemes d'IA no són del tot fiables, però són, de fet, propensos a les al·lucinacions. Fins i tot els models d'IA més avançats actuals no en són immunes.

Per exemple, un programa d'atac va enganyar el servei d'informàtica en núvol de Google per tal que seguissin una pistola com un helicòpter. Us imagineu si, en aquest moment, la IA era l'encarregada d'assegurar-se que la persona no estigués armada?

Un altre atac hostil va demostrar com afegir una petita imatge a un senyal de stop el fa invisible per al sistema d'IA. Essencialment, això vol dir que es pot fer que un cotxe autònom al·lucine que no hi ha cap senyal de stop a la carretera. Quants accidents podrien passar si els cotxes autònoms fossin una realitat avui? Per això ara no ho són.

Fins i tot si tenim en compte els programes de xat populars actualment, les al·lucinacions poden generar una sortida incorrecta. Però les persones que no saben que els chatbots d'IA són propensos a les al·lucinacions i no validen la sortida produïda pels robots d'IA, poden difondre informació errònia sense voler. No hem d'explicar com de perillós és això.

A més, els atacs hostils són una preocupació urgent. Fins ara, només s'han mostrat als laboratoris. Però si un sistema d'IA de missió crítica els enfronta al món real, les conseqüències poden ser devastadores.

La realitat és que és relativament més fàcil protegir els models de llenguatge natural. (No estem dient que sigui fàcil; encara resulta ser molt difícil.) Tanmateix, protegir els sistemes de visió per ordinador és un escenari completament diferent. És més difícil sobretot perquè hi ha molta variació en el món natural i les imatges contenen un gran nombre de píxels.

Per resoldre aquest problema, potser necessitem un programa d'IA que tingui una visió més humana del món que pugui fer-lo menys propens a les al·lucinacions. Mentre s'està investigant, encara estem molt lluny d'una intel·ligència artificial que pugui intentar agafar pistes de la natura i evadir el problema de les al·lucinacions. De moment, són una dura realitat.

En general, les al·lucinacions d'IA són un fenomen complex que pot sorgir d'una combinació de factors. Els investigadors estan desenvolupant activament mètodes per detectar i mitigar les al·lucinacions d'IA per millorar la precisió i la fiabilitat dels sistemes d'IA. Però hauríeu de ser conscients d'ells quan interactueu amb qualsevol sistema d'IA.

Llocs relacionats amb
Publicar l'article a

Afegiu un comentari