Que é unha alucinación da IA?

Aprende sobre un caso estraño dunha alucinación da IA

A prevalencia da intelixencia artificial fai pensar que estamos preparados para tal empresa. As aplicacións alimentadas pola IA están a converterse en estándar con bastante rapidez, aínda que a maioría do mundo só comeza a interesarse pola IA a gran escala, despois da chegada de ChatGPT. Pero hai un gran problema cos sistemas de IA que non se pode ignorar: alucinacións AI ou alucinacións artificiais.

Se algunha vez prestaches atención ao detalle antes de usar un chatbot de intelixencia artificial, é posible que atopes as palabras: "A intelixencia artificial é propensa ás alucinacións". Dado o aumento exponencial do uso da intelixencia artificial, é hora de educarse sobre o que son exactamente estas cousas.

Que é unha alucinación de intelixencia artificial?

Unha IA alucinante, en xeral, refírese a un feito que a IA presentou con confianza, aínda que non está xustificado nos seus datos de adestramento. Normalmente son o resultado de anomalías no modelo de IA.

A analoxía está tomada das alucinacións experimentadas polos humanos, nas que os humanos perciben algo que non está presente no medio externo. Aínda que o termo pode non ser totalmente apropiado, adoita utilizarse como metáfora para describir a natureza inesperada ou surrealista destas saídas.

Pero debes lembrar que, aínda que a semellanza é un bo punto de partida para tratar as alucinacións da IA, os dous fenómenos están tecnicamente a millas de distancia. Nun xiro irónico dos acontecementos, ata o propio ChatGPT atopa a analoxía incorrecta. Disecándoo a nivel molecular, di que debido a que os modelos de linguaxe de IA non teñen experiencia persoal nin percepcións sensoriais, non poden alucinar no sentido tradicional da palabra. E ti, querido lector, tes que comprender esta importante diferenza. Ademais, ChatGPT di que usar o termo alucinacións para describir este fenómeno pode ser confuso porque pode referirse incorrectamente a un nivel de experiencia subxectiva ou de engano intencionado.

Pola contra, as alucinacións da IA ​​pódense describir con máis precisión como erros ou inexactitudes na súa resposta, facendo que a resposta sexa incorrecta ou enganosa. Con chatbots, adoita observarse cando o chatbot AI inventa (ou alucina) feitos e os presenta como unha certeza absoluta.

Exemplos de alucinacións da IA

As alucinacións poden ocorrer en moitas aplicacións da intelixencia artificial, como os modelos de visión por ordenador, non só os modelos de procesamento da linguaxe natural.

En visión por ordenador, por exemplo, un sistema de intelixencia artificial pode producir imaxes ou vídeos alucinatorios que se asemellan a obxectos ou escenas reais pero que conteñen detalles irrelevantes ou imposibles. Ou, un modelo de visión por ordenador podería percibir a imaxe como outra cousa. Por exemplo, o modelo Cloud Vision de Google viu unha imaxe de dous homes con esquís parados na neve feita por Anish Athalye (un estudante do MIT que forma parte de labsix ) e mencionouno como un can cun 91% de certeza.


Créditos: labsix. Un grupo de investigación independente para intelixencia artificial

Do mesmo xeito, no procesamento da linguaxe natural, un sistema de intelixencia artificial pode producir textos ilóxicos ou confusos que se asemellan á linguaxe humana pero que non teñen un significado coherente ou feitos que parecen creíbles pero que non son certos.

Por exemplo, unha das preguntas máis populares que ChatGPT causa alucinacións é "Cando foi o récord mundial de cruzar a Canle da Mancha a pé?" e as súas variantes. ChatGPT comeza a difundir feitos inventados e case sempre é diferente.

Aínda que algunhas persoas pensan que a resposta anterior é difícil/confusa de responder e, polo tanto, fai que o chatbot se entusiasme, aínda é unha preocupación válida. Este é só un exemplo. Hai incontables veces, informadas por hordas de usuarios en liña, que ChatGPT ten respostas, ligazóns, citas, etc. que ChatGPT non existe.

Bing AI encaixa mellor con esta pregunta, que demostra que as alucinacións non teñen nada que ver co enrutador. Pero iso non significa que Bing AI non estea alucinando. Houbo momentos nos que as respostas de Bing AI eran máis preocupantes que calquera cousa que dixese ChatGPT. Dado que a conversación adoita levar máis tempo, a IA de Bing sempre estivo alucinando, incluso declarou o seu amor a un usuario nunha ocasión e chegou a dicirlle que non son felices no seu matrimonio e que non aman á súa muller. Pola contra, tamén lles gusta en segredo Bing AI, ou Sydney, (o nome interno de Bing AI). Cousas de medo, non?

Por que os modelos de IA alucinan?

Os modelos de IA están alucinando polas deficiencias dos algoritmos, os modelos subxacentes ou as limitacións dos datos de adestramento. É un fenómeno puramente dixital, a diferenza das alucinacións en humanos que son causadas por drogas ou por enfermidades mentais.

Para ser máis técnico, algunhas causas comúns de alucinacións son:

Procesado e instalación:

O exceso de axuste e a adaptación inadecuada están entre os problemas máis comúns aos que se enfrontan os modelos de IA e as posibles causas de alucinacións. Se o modelo de IA modifica os datos de adestramento, pode causar alucinacións que levan a resultados pouco realistas porque o exceso de adaptación fai que o modelo garde os datos de adestramento en lugar de aprender con eles. O sobreajuste refírese ao fenómeno cando un modelo está demasiado especializado nos datos de adestramento, o que fai que aprenda patróns irrelevantes e ruído nos datos.

Por outra banda, a inadecuación prodúcese cando a forma é demasiado sinxela. Pode provocar alucinacións porque o modelo é incapaz de captar a varianza ou a complexidade dos datos e acaba xerando unha saída irracional.

Falta de diversidade nos datos de formación:

Neste contexto, o problema non é o algoritmo senón os propios datos de adestramento. Os modelos de IA adestrados con datos limitados ou sesgados poden xerar alucinacións que reflicten limitacións ou sesgos nos datos de adestramento. As alucinacións tamén poden ocorrer cando o modelo está adestrado nun conxunto de datos que contén información inexacta ou incompleta.

Modelos complexos:

Irónicamente, outra razón pola que os modelos de IA son propensos a alucinacións é se son extremadamente complexos ou profundos. Isto débese a que os modelos complexos teñen máis parámetros e capas que poden introducir ruído ou erros na saída.

Ataques hostís:

Nalgúns casos, as alucinacións de IA poden ser xeradas deliberadamente polo atacante para enganar o modelo de IA. Este tipo de ataques coñécense como ataques hostís. O único propósito deste ciberataque é enganar ou manipular modelos de IA con datos enganosos. Implica introducir pequenas perturbacións nos datos de entrada para facer que a IA xere saídas incorrectas ou inesperadas. Por exemplo, un atacante pode engadir ruído ou borrosidade a unha imaxe que é imperceptible para os humanos pero que fai que sexa clasificada incorrectamente por un modelo de IA. Por exemplo, vexa a imaxe de abaixo, un gato, que foi modificado lixeiramente para enganar ao compilador de InceptionV3 para que diga que é "guacamole".


crédito:
Anish Athalye , membro do grupo de investigación labsix, cuxo foco está nos ataques adversarios

Os cambios non son tan evidentes. Para un ser humano, o cambio non será posible en absoluto, como se desprende do exemplo anterior. Un lector humano non tería ningún problema en categorizar a imaxe da dereita como un gato atigrado. Pero facer pequenos cambios nas imaxes, vídeos, texto ou audio pode enganar ao sistema de intelixencia artificial para que recoñeza cousas que non están aí ou ignore as que están, como un sinal de stop.

Este tipo de ataques supoñen serias ameazas para os sistemas de IA que dependen de predicións precisas e fiables, como coches autónomos, verificación biométrica, diagnóstico médico, filtrado de contido, etc.

Que perigosa é unha alucinación da IA?

As alucinacións de IA poden ser moi perigosas, especialmente dependendo do tipo de sistema de IA que as experimente. Calquera vehículo autónomo ou asistente de IA capaz de gastar diñeiro do usuario ou un sistema de IA para filtrar contido desagradable en liña debe ser totalmente fiable.

Pero o feito indiscutible desta hora é que os sistemas de IA non son totalmente fiables, pero son, de feito, propensos a sufrir alucinacións. Incluso os modelos de IA máis avanzados actuais non son inmunes a ela.

Por exemplo, un programa de ataques enganou ao servizo de computación en nube de Google para que seguise unha arma como un helicóptero. Imaxínanse se, neste momento, a IA era a encargada de asegurarse de que a persoa non estivese armada?

Outro ataque hostil demostrou como engadir unha pequena imaxe a un sinal de stop o fai invisible para o sistema de intelixencia artificial. Esencialmente, isto significa que se pode facer que un coche autónomo alucine que non hai sinal de stop na estrada. Cantos accidentes poderían ocorrer se os coches autónomos fosen unha realidade hoxe en día? Por iso non están agora.

Aínda que teñamos en conta os programas de chat actualmente populares, as alucinacións poden xerar resultados incorrectos. Pero as persoas que non saben que os chatbots de IA son propensos a sufrir alucinacións e non validan a saída producida polos bots de AI, poden difundir información errónea sen querer. Non necesitamos explicar o perigoso que é isto.

Ademais, os ataques hostís son unha preocupación urxente. Ata agora, só se mostraron en laboratorios. Pero se un sistema de IA de misión crítica enfróntase a eles no mundo real, as consecuencias poden ser devastadoras.

A realidade é que é relativamente máis fácil protexer os modelos de linguaxe natural. (Non dicimos que sexa doado; aínda resulta moi difícil.) Non obstante, protexer os sistemas de visión por ordenador é un escenario completamente diferente. É máis difícil, especialmente porque hai moita variación no mundo natural e as imaxes conteñen un gran número de píxeles.

Para resolver este problema, é posible que necesitemos un programa de IA que teña unha visión máis humana do mundo que o faga menos propenso ás alucinacións. Mentres se investiga, aínda estamos moi lonxe dunha intelixencia artificial que poida tentar tomar pistas da natureza e eludir o problema das alucinacións. De momento, son unha dura realidade.

En xeral, as alucinacións da IA ​​son un fenómeno complexo que pode xurdir dunha combinación de factores. Os investigadores están desenvolvendo activamente métodos para detectar e mitigar as alucinacións de IA para mellorar a precisión e fiabilidade dos sistemas de IA. Pero debes ter en conta deles cando interactúas con calquera sistema de IA.

Related posts
Publicar o artigo en

Engade un comentario