Čo je to halucinácia AI?

Dozviete sa o zvláštnom prípade halucinácie AI

Prevalencia umelej inteligencie núti človeka myslieť si, že sme na takýto podnik pripravení. Aplikácie poháňané AI sa stávajú štandardom pomerne rýchlo, aj keď väčšina sveta sa o AI vo veľkom začína zaujímať až teraz, po príchode ChatGPT. So systémami AI je však veľký problém, ktorý nemožno ignorovať – AI halucinácie, čiže umelé halucinácie.

Ak ste niekedy pred použitím chatbota s umelou inteligenciou venovali pozornosť hlúpostiam, možno ste sa stretli so slovami, "Umelá inteligencia je náchylná na halucinácie." Vzhľadom na exponenciálny nárast využívania umelej inteligencie je načase vzdelávať sa v tom, čo presne tieto veci sú.

Čo je to halucinácia umelej inteligencie?

Halucinácia AI vo všeobecnosti odkazuje na skutočnosť, ktorú AI s istotou prezentovala, aj keď nie je odôvodnená vo svojich tréningových údajoch. Zvyčajne sú výsledkom anomálií v modeli AI.

Prirovnanie je prevzaté z halucinácií prežívaných ľuďmi, pri ktorých ľudia vnímajú niečo, čo nie je prítomné vo vonkajšom prostredí. Aj keď tento výraz nemusí byť úplne vhodný, často sa používa ako metafora na opis neočakávanej alebo surreálnej povahy týchto výstupov.

Mali by ste však pamätať na to, že zatiaľ čo podobnosť je dobrým východiskovým bodom na riešenie halucinácií AI, tieto dva fenomény sú technicky na míle vzdialené. V ironickom obrate udalostí dokonca aj samotný ChatGPT považuje analógiu za nesprávnu. Keď to rozoberá na molekulárnej úrovni, hovorí, že keďže jazykové modely AI nemajú osobnú skúsenosť ani zmyslové vnemy, nemôžu halucinovať v tradičnom zmysle slova. A ty, drahý čitateľ, musíš pochopiť tento dôležitý rozdiel. Okrem toho ChatGPT hovorí, že používanie termínu halucinácie na opis tohto javu môže byť mätúce, pretože môže nepresne odkazovať na úroveň subjektívnej skúsenosti alebo úmyselného podvodu.

Namiesto toho sa halucinácie AI dajú presnejšie opísať ako chyby alebo nepresnosti v odpovedi, vďaka čomu je odpoveď nesprávna alebo zavádzajúca. Pri chatbotoch sa často pozoruje, keď si AI chatbot vymýšľa (alebo halucinuje) fakty a prezentuje ich ako absolútnu istotu.

Príklady halucinácií AI

Halucinácie sa môžu vyskytnúť v mnohých aplikáciách umelej inteligencie, ako sú modely počítačového videnia, nielen modely spracovania prirodzeného jazyka.

Napríklad v počítačovom videní môže systém AI produkovať halucinačné obrázky alebo videá, ktoré sa podobajú skutočným objektom alebo scénam, ale obsahujú nepodstatné alebo nemožné detaily. Alebo model počítačového videnia môže vnímať obraz ako niečo úplne iné. Napríklad model Cloud Vision spoločnosti Google videl obrázok dvoch mužov na lyžiach stojacich v snehu, ktorý vytvoril Anish Athalye (študent MIT, ktorý je súčasťou labsix ) a uviedol ho ako psa s 91% istotou.


Kredity: labsix. Nezávislá výskumná skupina pre umelú inteligenciu

Podobne pri spracovaní prirodzeného jazyka môže systém umelej inteligencie produkovať nelogický alebo skomolený text, ktorý sa podobá ľudskému jazyku, ale nemá koherentný význam, alebo skutočnosti, ktoré sa zdajú byť vierohodné, ale nie sú pravdivé.

Napríklad jedna z najpopulárnejších otázok, ktoré ChatGPT spôsobuje halucinácie, je „Kedy bol stanovený svetový rekord v prekročení Lamanšského prielivu pešo?“ a jeho varianty. ChatGPT začne šíriť vymyslené fakty a takmer vždy je to inak.

Zatiaľ čo niektorí ľudia si myslia, že odpoveď na vyššie uvedenú odpoveď je ťažká/mätúca, a preto spôsobuje, že chatbot sa rozbúcha, je to stále opodstatnená obava. Toto je len jeden príklad. Existuje nespočetne veľakrát, hlásených hordami používateľov online, že ChatGPT má odpovede, odkazy, citácie atď., že ChatGPT neexistuje.

Bing AI sa k tejto otázke najlepšie hodí, čo ukazuje, že halucinácie nemajú nič spoločné s routerom. To však neznamená, že Bing AI nemá halucinácie. Boli časy, keď odpovede Bing AI boli znepokojujúcejšie ako čokoľvek, čo povedal ChatGPT. Keďže konverzácia zvyčajne trvá dlhšie, umelá inteligencia Bing mala vždy halucinácie, dokonca v jednom prípade deklarovala svoju lásku používateľovi a zašla tak ďaleko, že im povedala, že sú nešťastní v manželstve a že nemilujú jeho manželku. Namiesto toho tajne milujú aj Bing AI alebo Sydney (interný názov pre Bing AI). Strašidelné veci, však?

Prečo majú modely AI halucinácie?

Modely AI sú halucinujúce z dôvodu nedostatkov algoritmov, základných modelov alebo obmedzení trénovacích údajov. Ide o čisto digitálny jav, na rozdiel od halucinácií u ľudí, ktoré sú spôsobené buď drogami, alebo duševnými chorobami.

Ak chcete získať viac technických informácií, niektoré bežné príčiny halucinácií sú:

Spracovanie a inštalácia:

Medzi najbežnejšie úskalia, ktorým čelia modely AI a možné príčiny halucinácií, patrí premontovanie a nesprávne prispôsobenie. Ak model AI upraví tréningové údaje, môže to spôsobiť halucinácie, ktoré vedú k nereálnym výstupom, pretože nadmerné prispôsobenie spôsobí, že model uloží tréningové údaje namiesto toho, aby sa z nich učil. Overfitting sa týka javu, keď je model príliš špecializovaný na trénovacie údaje, čo spôsobuje, že sa v údajoch učí irelevantné vzorce a šum.

Na druhej strane nevhodnosť nastáva, keď je forma príliš jednoduchá. Môže to viesť k halucináciám, pretože model nie je schopný zachytiť rozptyl alebo zložitosť údajov a nakoniec generuje iracionálny výstup.

Nedostatok rozmanitosti v tréningových údajoch:

V tomto kontexte nie je problémom algoritmus, ale samotné trénovacie dáta. Modely AI trénované na obmedzených alebo skreslených údajoch môžu generovať halucinácie, ktoré odrážajú obmedzenia alebo zaujatosti v trénovacích údajoch. Halucinácie sa môžu vyskytnúť aj vtedy, keď je model trénovaný na súbore údajov, ktorý obsahuje nepresné alebo neúplné informácie.

Komplexné modely:

Iróniou je, že ďalším dôvodom, prečo sú modely AI náchylné na halucinácie, je to, či sú extrémne zložité alebo hlboké. Je to preto, že zložité modely majú viac parametrov a vrstiev, ktoré môžu do výstupu vnášať šum alebo chyby.

Nepriateľské útoky:

V niektorých prípadoch môže útočník úmyselne generovať halucinácie AI, aby oklamal model AI. Tieto typy útokov sú známe ako nepriateľské útoky. Jediným účelom tohto kybernetického útoku je oklamať alebo zmanipulovať modely AI pomocou zavádzajúcich údajov. Zahŕňa to zavedenie malých porúch do vstupných údajov, ktoré spôsobia, že AI vytvorí nesprávny alebo neočakávaný výstup. Útočník môže napríklad pridať šum alebo rozmazanie obrazu, ktorý je pre ľudí nepostrehnuteľný, ale spôsobí, že bude nesprávne klasifikovaný modelom AI. Pozrite si napríklad obrázok nižšie, mačka, ktorá bola mierne upravená, aby oklamala kompilátor InceptionV3, aby uviedol, že ide o „guacamole“.


kredit:
Anish Athalye , člen výskumnej skupiny labsix, ktorá sa zameriava na kontradiktórne útoky

Zmeny nie sú do očí bijúce. Pre človeka nebude zmena vôbec možná, ako je zrejmé z vyššie uvedeného príkladu. Ľudský čitateľ by nemal problém zaradiť obrázok vpravo do kategórie mourovatá mačka. Malé zmeny na obrázkoch, videách, texte alebo zvuku však môžu oklamať systém AI tak, aby rozpoznal veci, ktoré tam nie sú, alebo ignoroval veci, ktoré tam sú, napríklad stopku.

Tieto typy útokov predstavujú vážne hrozby pre systémy AI, ktoré sa spoliehajú na presné a spoľahlivé predpovede, ako sú autá s vlastným pohonom, biometrické overovanie, lekárska diagnostika, filtrovanie obsahu atď.

Aká nebezpečná je halucinácia AI?

Halucinácie AI môžu byť veľmi nebezpečné, najmä v závislosti od toho, aký typ systému AI ich zažíva. Akékoľvek samoriadiace vozidlá alebo asistenti AI schopní míňať peniaze používateľa alebo systém AI na filtrovanie nepríjemného obsahu online musia byť úplne dôveryhodné.

Nesporným faktom tejto hodiny však je, že systémy AI nie sú úplne dôveryhodné, ale v skutočnosti sú náchylné na halucinácie. Ani dnešné najpokročilejšie modely AI nie sú voči nej imúnne.

Napríklad jedna relácia o útoku oklamala službu cloud computingu Google, aby zachytila ​​zbraň ako helikoptéru. Viete si predstaviť, že by AI bola v súčasnosti zodpovedná za to, aby osoba nebola ozbrojená?

Ďalší nepriateľský útok ukázal, ako pridanie malého obrázka na značku stop ju robí neviditeľnou pre systém AI. V podstate to znamená, že samoriadiace auto môže mať halucinácie, že na ceste nie je stopka. Koľko nehôd by sa mohlo stať, keby boli dnes samoriadiace autá realitou? Preto teraz nie sú.

Aj keď vezmeme do úvahy v súčasnosti populárne chatovacie relácie, halucinácie môžu generovať nesprávny výstup. Ale ľudia, ktorí nevedia, že chatboty AI sú náchylné na halucinácie a nepotvrdzujú výstup produkovaný robotmi AI, môžu neúmyselne šíriť dezinformácie. Nemusíme vysvetľovať, aké je to nebezpečné.

Nepriateľské útoky sú navyše naliehavým problémom. Zatiaľ ich ukázali len v laboratóriách. Ak sa im však kritický systém AI postaví v reálnom svete, následky môžu byť zničujúce.

Realita je taká, že je relatívne jednoduchšie chrániť modely prirodzeného jazyka. (Nehovoríme, že je to jednoduché; stále sa to ukazuje ako veľmi ťažké.) Ochrana systémov počítačového videnia je však úplne iný scenár. Je to ťažšie najmä preto, že v prírodnom svete je toľko variácií a obrázky obsahujú veľké množstvo pixelov.

Na vyriešenie tohto problému možno budeme potrebovať program AI, ktorý má ľudskejší pohľad na svet, vďaka čomu bude menej náchylný na halucinácie. Zatiaľ čo sa robí výskum, sme stále ďaleko od umelej inteligencie, ktorá sa môže pokúsiť získať rady z prírody a vyhnúť sa problémom s halucináciami. Zatiaľ sú tvrdou realitou.

Vo všeobecnosti sú halucinácie AI komplexným javom, ktorý môže vzniknúť kombináciou faktorov. Výskumníci aktívne vyvíjajú metódy na detekciu a zmiernenie halucinácií AI s cieľom zlepšiť presnosť a spoľahlivosť systémov AI. Mali by ste si ich však uvedomiť pri interakcii s akýmkoľvek systémom AI.

Súvisiace príspevky
Zverejnite článok na

Pridať komentár