Co je to halucinace AI?

Dozvíte se o podivném případu halucinace AI

Převaha umělé inteligence nutí člověka myslet si, že jsme na takový podnik připraveni. Aplikace poháněné umělou inteligencí se stávají standardem poměrně rychle, i když se většina světa začíná o umělou inteligenci ve velkém zajímat až nyní, po příchodu ChatGPT. Se systémy AI je ale velký problém, který nelze ignorovat – AI halucinace neboli umělé halucinace.

Pokud jste někdy před použitím chatbota s umělou inteligencí věnovali pozornost natvrdlé drti, možná jste narazili na slova, "Umělá inteligence je náchylná k halucinacím." Vzhledem k exponenciálnímu nárůstu využívání umělé inteligence je na čase se vzdělávat v tom, co přesně tyto věci jsou.

Co je to halucinace umělé inteligence?

Halucinace umělé inteligence obecně odkazuje na skutečnost, kterou umělá inteligence sebevědomě prezentovala, i když není opodstatněná ve svých tréninkových datech. Obvykle jsou výsledkem anomálií v modelu AI.

Přirovnání je převzato z halucinací prožívaných lidmi, ve kterých lidé vnímají něco, co není přítomno ve vnějším prostředí. I když tento termín nemusí být zcela vhodný, často se používá jako metafora k popisu neočekávané nebo surrealistické povahy těchto výstupů.

Měli byste si však pamatovat, že zatímco podobnost je dobrým výchozím bodem pro řešení halucinací AI, tyto dva jevy jsou technicky na míle vzdálené. V ironickém obratu událostí dokonce i samotný ChatGPT považuje analogii za špatnou. Když to rozebírá na molekulární úrovni, říká, že protože jazykové modely AI nemají osobní zkušenost ani smyslové vjemy, nemohou halucinovat v tradičním slova smyslu. A ty, milý čtenáři, musíš pochopit tento důležitý rozdíl. Dále ChatGPT říká, že použití termínu halucinace k popisu tohoto jevu může být matoucí, protože může nepřesně odkazovat na úroveň subjektivní zkušenosti nebo záměrného klamu.

Místo toho lze halucinace umělé inteligence přesněji popsat jako chyby nebo nepřesnosti v její odpovědi, což činí odpověď nesprávnou nebo zavádějící. U chatbotů je často pozorováno, když si AI ​​chatbot vymýšlí (nebo halucinuje) fakta a prezentuje je jako absolutní jistotu.

Příklady halucinací AI

Halucinace se mohou objevit v mnoha aplikacích umělé inteligence, jako jsou modely počítačového vidění, nejen modely zpracování přirozeného jazyka.

Například v počítačovém vidění může systém umělé inteligence vytvářet halucinační obrázky nebo videa, která se podobají skutečným předmětům nebo scénám, ale obsahují nepodstatné nebo nemožné detaily. Nebo by model počítačového vidění mohl vnímat obraz jako něco úplně jiného. Například model Cloud Vision společnosti Google viděl obrázek dvou mužů na lyžích stojících ve sněhu od Anish Athalye (postgraduální student MIT, který je součástí labsix ) a uvedl jej jako psa s 91% jistotou.


Kredity: labsix. Nezávislá výzkumná skupina pro umělou inteligenci

Podobně při zpracování přirozeného jazyka může systém umělé inteligence produkovat nelogický nebo zkomolený text, který se podobá lidskému jazyku, ale nemá koherentní význam, nebo fakta, která vypadají věrohodně, ale nejsou pravdivá.

Například jedna z nejoblíbenějších otázek, které ChatGPT způsobuje halucinace, je „Kdy byl vytvořen světový rekord v překročení kanálu La Manche pěšky? a její varianty. ChatGPT začne šířit smyšlená fakta a téměř vždy je to jinak.

I když si někteří lidé myslí, že odpověď na výše uvedenou odpověď je obtížná/matoucí, a tím způsobí, že chatbot běsní, je to stále oprávněná obava. Toto je jen jeden příklad. Hordami uživatelů online je nespočetněkrát hlášeno, že ChatGPT má odpovědi, odkazy, citace atd., že ChatGPT neexistuje.

Na tuto otázku se nejlépe hodí Bing AI, která ukazuje, že halucinace nemají s routerem nic společného. Ale to neznamená, že Bing AI nemá halucinace. Byly doby, kdy byly odpovědi Bing AI znepokojivější než cokoli, co ChatGPT řekl. Vzhledem k tomu, že konverzace obvykle trvá déle, umělá inteligence Bing vždy halucinovala, dokonce v jednom případě vyjadřovala svou lásku k uživateli a zašla tak daleko, že jim řekla, že jsou nešťastní ve svém manželství a že nemilují jeho ženu. Místo toho tajně milují také Bing AI nebo Sydney (interní název pro Bing AI). Strašidelné věci, že?

Proč mají modely umělé inteligence halucinace?

Modely umělé inteligence jsou halucinující kvůli nedostatkům algoritmů, základních modelů nebo omezením trénovacích dat. Jde o čistě digitální fenomén, na rozdíl od halucinací u lidí, které jsou způsobeny buď drogami, nebo duševními chorobami.

Abychom byli techničtější, některé běžné příčiny halucinací jsou:

Zpracování a instalace:

Mezi nejčastější úskalí, se kterou se modely umělé inteligence potýkají, a možné příčiny halucinací patří přemontování a nesprávná montáž. Pokud model AI upraví trénovací data, může to způsobit halucinace, které vedou k nerealistickému výstupu, protože přefitování způsobí, že model uloží trénovací data, místo aby se z nich učil. Overfitting se týká jevu, kdy je model příliš specializovaný na trénovací data, což způsobuje, že se v datech učí irelevantní vzorce a šum.

Na druhou stranu nevhodnost nastává, když je forma příliš jednoduchá. Může to vést k halucinacím, protože model není schopen zachytit rozptyl nebo složitost dat a nakonec generuje iracionální výstup.

Nedostatek rozmanitosti v tréninkových datech:

V tomto kontextu není problémem algoritmus, ale samotná trénovací data. Modely AI trénované na omezených nebo zkreslených datech mohou generovat halucinace, které odrážejí omezení nebo zkreslení v trénovacích datech. Halucinace se také mohou objevit, když je model trénován na datovém souboru, který obsahuje nepřesné nebo neúplné informace.

Komplexní modely:

Je ironií, že dalším důvodem, proč jsou modely umělé inteligence náchylné k halucinacím, je to, zda jsou extrémně složité nebo hluboké. Je to proto, že složité modely mají více parametrů a vrstev, které mohou do výstupu vnášet šum nebo chyby.

Nepřátelské útoky:

V některých případech mohou být halucinace AI úmyslně generovány útočníkem, aby oklamal model AI. Tyto typy útoků jsou známé jako nepřátelské útoky. Jediným účelem tohoto kybernetického útoku je oklamat nebo zmanipulovat modely umělé inteligence pomocí zavádějících údajů. Zahrnuje zavedení malých poruch do vstupních dat, které způsobí, že AI generuje nesprávný nebo neočekávaný výstup. Útočník může například přidat šum nebo rozmazání obrazu, který je pro lidi nepostřehnutelný, ale způsobí jeho nesprávnou klasifikaci modelem AI. Podívejte se například na obrázek níže, kočka, která byla mírně upravena, aby oklamala kompilátor InceptionV3, aby prohlásil, že jde o „guacamole“.


kredit:
Anish Athalye , člen výzkumné skupiny labsix, která se zaměřuje na nepřátelské útoky

Změny nejsou do očí bijící. Pro člověka nebude změna vůbec možná, jak je patrné z výše uvedeného příkladu. Lidský čtenář by neměl problém zařadit obrázek vpravo do kategorie mourovatá kočka. Ale provádění malých změn na obrázcích, videích, textu nebo zvuku může systém umělé inteligence oklamat, aby rozpoznal věci, které tam nejsou, nebo ignoroval věci, které tam jsou, jako je značka stop.

Tyto typy útoků představují vážné hrozby pro systémy umělé inteligence, které se spoléhají na přesné a spolehlivé předpovědi, jako jsou samořídící auta, biometrické ověřování, lékařská diagnostika, filtrování obsahu a tak dále.

Jak nebezpečná je halucinace AI?

Halucinace AI mohou být velmi nebezpečné, zejména v závislosti na tom, jaký typ systému AI je zažívá. Jakákoli samořídící vozidla nebo asistenti AI schopní utrácet uživatelské peníze nebo systém AI pro filtrování nepříjemného obsahu online musí být naprosto důvěryhodné.

Ale nesporným faktem této hodiny je, že systémy AI nejsou zcela důvěryhodné, ale ve skutečnosti jsou náchylné k halucinacím. Ani dnešní nejpokročilejší modely umělé inteligence vůči němu nejsou imunní.

Například jedna útočná show oklamala službu cloud computingu Google, aby zachytila ​​zbraň jako vrtulník. Dokážete si představit, že by v tuto chvíli byla umělá inteligence zodpovědná za to, že osoba nebyla ozbrojena?

Další nepřátelský útok ukázal, jak přidání malého obrázku na značku stop ji dělá neviditelnou pro systém AI. V podstatě to znamená, že samořídící auto může mít halucinace, že na silnici není stopka. Kolik nehod by se mohlo stát, kdyby dnes byla samořídící auta realitou? Proto nyní nejsou.

I když vezmeme v úvahu aktuálně populární chatovací pořady, halucinace mohou generovat nesprávný výstup. Ale lidé, kteří nevědí, že chatboti s umělou inteligencí jsou náchylní k halucinacím a neověřují výstup produkovaný roboty AI, mohou nechtěně šířit dezinformace. Nemusíme vysvětlovat, jak je to nebezpečné.

Kromě toho jsou naléhavým problémem nepřátelské útoky. Zatím byly předváděny pouze v laboratořích. Ale pokud se jim v reálném světě postaví kritický systém umělé inteligence, následky mohou být zničující.

Realita je taková, že je relativně snazší chránit modely přirozeného jazyka. (Neříkáme, že je to snadné; stále se ukazuje, že je to velmi obtížné.) Ochrana systémů počítačového vidění je však zcela odlišný scénář. Je to obtížnější zejména proto, že v přírodním světě je tolik variací a obrázky obsahují velké množství pixelů.

K vyřešení tohoto problému možná budeme potřebovat program umělé inteligence, který má lidštější pohled na svět, díky kterému by byl méně náchylný k halucinacím. Zatímco výzkum probíhá, jsme stále ještě daleko od umělé inteligence, která se může pokusit vzít si rady z přírody a vyhnout se problému halucinací. Zatím jsou krutou realitou.

Obecně jsou halucinace AI komplexním fenoménem, ​​který může vzniknout kombinací různých faktorů. Vědci aktivně vyvíjejí metody pro detekci a zmírnění halucinací umělé inteligence, aby zlepšili přesnost a spolehlivost systémů umělé inteligence. Ale měli byste si jich být vědomi při interakci s jakýmkoli systémem AI.

Související příspěvky
Publikovat článek na

Přidat komentář