Mi az AI hallucináció?

Ismerje meg a mesterséges intelligencia hallucinációjának furcsa esetét

A mesterséges intelligencia elterjedtsége arra készteti az embert, hogy készen állunk egy ilyen vállalkozásra. Az AI-alapú alkalmazások meglehetősen gyorsan szabványossá válnak, még akkor is, ha a világ nagy része csak most, a ChatGPT megjelenése után kezd nagymértékben érdeklődni az AI iránt. Az AI-rendszerekkel azonban van egy nagy probléma, amelyet nem lehet figyelmen kívül hagyni – az AI-hallucinációk vagy mesterséges hallucinációk.

Ha valaha is figyelt a nitty gritty-re, mielőtt AI chatbotot használt volna, akkor találkozhatott a következő szavakkal: – A mesterséges intelligencia hajlamos a hallucinációkra. Tekintettel a mesterséges intelligencia használatának exponenciális növekedésére, itt az ideje, hogy tájékozódjon arról, mik is pontosan ezek.

Mi a mesterséges intelligencia hallucinációja?

A hallucináló mesterséges intelligencia általában arra a tényre utal, amelyet a mesterséges intelligencia magabiztosan mutatott be, annak ellenére, hogy a képzési adataiban ez nem indokolt. Általában az AI-modell anomáliáinak eredménye.

Az analógia az emberek által átélt hallucinációkból származik, amelyek során az emberek olyasmit észlelnek, ami nincs jelen a külső környezetben. Bár a kifejezés nem teljesen helyénvaló, gyakran használják metaforaként e kimenetek váratlan vagy szürreális természetének leírására.

De ne feledje, hogy bár a hasonlóság jó kiindulópont az AI-hallucinációk kezeléséhez, a két jelenség technikailag mérföldekre van egymástól. Az események ironikus fordulatában még maga a ChatGPT is helytelennek találja az analógiát. Molekuláris szinten boncolgatva azt mondja, hogy mivel az AI nyelvi modelleknek nincs személyes tapasztalatuk vagy érzékszervi észlelésük, a szó hagyományos értelmében nem hallucinálhatnak. És neked, kedves olvasó, meg kell értened ezt a fontos különbséget. Ezenkívül a ChatGPT szerint a hallucinációk kifejezés használata ennek a jelenségnek a leírására zavaró lehet, mert pontatlanul utalhat a szubjektív tapasztalat vagy szándékos megtévesztés szintjére.

Ehelyett a mesterséges intelligencia hallucinációi pontosabban leírhatók a válasz hibáiként vagy pontatlanságaként, így a válasz helytelen vagy félrevezető. A chatbotoknál gyakran megfigyelhető, amikor az AI chatbot tényeket talál ki (vagy hallucinál), és abszolút bizonyosságként mutatja be azokat.

Példák a mesterséges intelligencia hallucinációira

Hallucinációk előfordulhatnak a mesterséges intelligencia számos alkalmazásában, például a számítógépes látásmodellekben, nem csak a természetes nyelvi feldolgozási modellekben.

A számítógépes látásban például egy mesterséges intelligencia rendszer hallucinációs képeket vagy videókat készíthet, amelyek valós tárgyakra vagy jelenetekre hasonlítanak, de lényegtelen vagy lehetetlen részleteket tartalmaznak. Vagy egy számítógépes látásmodell valami egészen másként érzékelheti a képet. A Google Cloud Vision modellje például két sílécen ülő férfit látott a hóban, amelyet Anish Athalye (egy MIT végzős hallgatója, aki a labsix ), és 91%-os biztonsággal kutyaként említette.


Kredit: labsix. Független mesterséges intelligencia kutatócsoport

Hasonlóképpen, a természetes nyelvi feldolgozás során egy mesterséges intelligencia rendszer logikátlan vagy torz szöveget állíthat elő, amely hasonlít az emberi nyelvre, de nincs koherens jelentése, vagy olyan tények, amelyek hihetőnek tűnnek, de nem igazak.

Például az egyik legnépszerűbb kérdés, amelynél a ChatGPT hallucinációkat okoz: „Mikor született meg a La Manche csatornán való gyalogos átkelés világrekordja?” és változatai. A ChatGPT kitalált tényeket kezd terjeszteni, és ez szinte mindig más.

Noha egyesek úgy gondolják, hogy a fenti válasz nehéz/zavaró megválaszolása, és ezáltal a chatbot tombolását okozza, ez továbbra is jogos aggodalomra ad okot. Ez csak egy példa. Számtalanszor számoltak be online felhasználók hordáiról, hogy a ChatGPT olyan válaszokat, linkeket, idézeteket stb. tartalmaz, amelyekre a ChatGPT nem létezik.

A Bing AI illik a legjobban ehhez a kérdéshez, ami azt mutatja, hogy a hallucinációknak semmi közük az útválasztóhoz. De ez nem jelenti azt, hogy a Bing AI nem hallucinál. Voltak idők, amikor a Bing AI válaszai aggasztóbbak voltak, mint bármi, amit a ChatGPT mondott. Mivel a beszélgetés általában tovább tart, a Bing AI mindig is hallucinál, sőt, egy alkalommal kinyilvánította a szeretetét a felhasználónak, és odáig ment, hogy azt mondta nekik, hogy boldogtalanok a házasságukban, és nem szeretik a feleségét. Ehelyett titokban a Bing AI-t vagy Sydney-t (a Bing AI belső neve) is szeretik. Ijesztő dolog, igaz?

Miért hallucinálnak az AI-modellek?

Az AI modellek hallucinálnak az algoritmusok hiányosságai, a mögöttes modellek vagy a betanítási adatok korlátai miatt. Ez egy tisztán digitális jelenség, ellentétben az emberi hallucinációkkal, amelyeket akár kábítószerek, akár mentális betegségek okoznak.

Technikai szempontból a hallucinációk néhány gyakori oka:

Feldolgozás és telepítés:

A túlillesztés és a helytelen illeszkedés az AI-modellek leggyakoribb buktatói és a hallucinációk lehetséges okai közé tartoznak. Ha az AI-modell módosítja a képzési adatokat, az hallucinációkat okozhat, amelyek irreális kimenethez vezetnek, mivel a túlillesztés hatására a modell elmenti a képzési adatokat, ahelyett, hogy tanulna belőlük. A túlillesztés arra a jelenségre utal, amikor egy modell túlságosan specializálódott a betanítási adatokra, ami miatt irreleváns mintákat és zajt tanul az adatokban.

Másrészt a nem megfelelőség akkor fordul elő, ha a forma túl egyszerű. Hallucinációkhoz vezethet, mivel a modell nem képes megragadni az adatok varianciáját vagy összetettségét, és végül irracionális kimenetet generál.

Az edzésadatok sokszínűségének hiánya:

Ebben az összefüggésben a probléma nem az algoritmus, hanem maga a betanítási adat. A korlátozott vagy elfogult adatokon betanított AI-modellek hallucinációkat generálhatnak, amelyek a betanítási adatok korlátait vagy torzításait tükrözik. Hallucinációk akkor is előfordulhatnak, ha a modellt pontatlan vagy hiányos információkat tartalmazó adatkészletre tanítják.

Komplex modellek:

Ironikus módon egy másik ok, amiért az AI-modellek hajlamosak a hallucinációkra, az az, hogy rendkívül összetettek vagy mélyrehatóak. Ennek az az oka, hogy az összetett modellek több paraméterrel és réteggel rendelkeznek, amelyek zajt vagy hibákat okozhatnak a kimenetben.

Ellenséges támadások:

Egyes esetekben a támadó szándékosan mesterséges intelligencia hallucinációkat generálhat, hogy megtévessze az AI-modellt. Az ilyen típusú támadásokat ellenséges támadásoknak nevezik. Ennek a kibertámadásnak az egyetlen célja, hogy félrevezető adatokat tartalmazó mesterséges intelligencia-modelleket becsapjon vagy manipuláljon. Ez magában foglalja a bemeneti adatokba kis perturbációk bevezetését, amelyek az AI helytelen vagy váratlan kimenetet generálnak. Például egy támadó olyan zajt vagy elmosódást adhat hozzá egy képhez, amely nem érzékelhető az emberek számára, de egy mesterséges intelligencia-modell tévesen osztályozza azt. Például lásd az alábbi képet, egy macskát, amelyet kissé módosítottak, hogy rávegyék az InceptionV3 fordítóját, és azt állítsák, hogy „guacamole”.


hitel:
Anish Athalye , a labsix kutatócsoport tagja, amelynek fókuszában az ellenséges támadások állnak

A változások nem szembetűnőek. Egy emberi lény számára a változás egyáltalán nem lesz lehetséges, amint az a fenti példából is kitűnik. Egy emberi olvasónak nem okoz gondot a jobb oldali képet a cirmos macska kategóriába sorolni. A képek, videók, szövegek vagy hangok apró módosításai azonban rávehetik az AI-rendszert, hogy felismerje a nem létező dolgokat, vagy figyelmen kívül hagyja azokat, amelyek vannak, például egy stoptáblát.

Az ilyen típusú támadások komoly fenyegetést jelentenek a pontos és megbízható előrejelzéseken alapuló mesterséges intelligencia-rendszerekre, például az önvezető autókra, a biometrikus ellenőrzésre, az orvosi diagnosztikára, a tartalomszűrésre és így tovább.

Mennyire veszélyes az AI-hallucináció?

A mesterséges intelligencia hallucinációi nagyon veszélyesek lehetnek, különösen attól függően, hogy milyen típusú AI-rendszer tapasztalja őket. Minden olyan önvezető járműnek vagy mesterséges intelligencia asszisztensnek, amely képes a felhasználói pénzt költeni, vagy egy mesterséges intelligencia rendszernek a kellemetlen online tartalmak kiszűrésére, teljesen megbízhatónak kell lennie.

De ennek az óra vitathatatlan ténye az, hogy az AI-rendszerek nem teljesen megbízhatóak, de valójában hajlamosak a hallucinációkra. Még a mai legfejlettebb mesterséges intelligencia modellek sem immunisak ez ellen.

Például egy támadási műsor becsapta a Google felhőalapú számítástechnikai szolgáltatását, és úgy csapta be a fegyvert, mint egy helikoptert. El tudja képzelni, hogy jelenleg az MI lenne a felelős azért, hogy az illető ne legyen felfegyverkezve?

Egy másik ellenséges támadás megmutatta, hogy egy kis kép hozzáadása a stoptáblához hogyan teszi azt láthatatlanná az AI-rendszer számára. Lényegében ez azt jelenti, hogy egy önvezető autóval azt lehet hallucinálni, hogy nincs stoptábla az úton. Hány baleset történhetne, ha ma valóság lenne az önvezető autó? Ezért most nincsenek.

Még ha figyelembe vesszük is a jelenleg népszerű chat-műsorokat, a hallucinációk hibás kimenetet generálhatnak. De azok az emberek, akik nem tudják, hogy az AI chatbotok hajlamosak a hallucinációkra, és nem hitelesítik az AI-botok által termelt kimenetet, akaratlanul is félretájékoztathatnak. Nem kell elmagyaráznunk, hogy ez mennyire veszélyes.

Ezenkívül az ellenséges támadások sürgető aggodalomra adnak okot. Eddig csak laboratóriumokban mutatták be. De ha egy küldetéskritikus AI-rendszer szembesül velük a való világban, a következmények pusztítóak lehetnek.

A valóság az, hogy viszonylag egyszerűbb a természetes nyelvi modellek védelme. (Nem azt mondjuk, hogy könnyű; még mindig nagyon nehéznek bizonyul.) A számítógépes látórendszerek védelme azonban egy teljesen más forgatókönyv. Ez különösen azért nehezebb, mert a természeti világban nagyon sok a változatosság, és a képek sok pixelt tartalmaznak.

A probléma megoldásához szükségünk lehet egy olyan mesterséges intelligencia programra, amely emberibb képet ad a világról, ami kevésbé lesz hajlamos a hallucinációkra. Amíg a kutatások zajlanak, még mindig nagyon messze vagyunk attól a mesterséges intelligenciától, amely megpróbálhat tippeket fogadni a természettől, és elkerülni a hallucinációk problémáját. Egyelőre ezek kemény valóság.

Általánosságban elmondható, hogy a mesterséges intelligencia hallucinációi összetett jelenség, amely több tényező kombinációjából eredhet. A kutatók aktívan fejlesztenek módszereket a mesterséges intelligencia hallucinációinak észlelésére és enyhítésére, hogy javítsák az AI-rendszerek pontosságát és megbízhatóságát. De tisztában kell lennie velük, amikor bármilyen AI rendszerrel kommunikál.

Kapcsolódó hozzászólás
A cikk közzététele a

Hozzászólni