Mikä on AI-hallusinaatio?

Opi oudosta tekoäly-hallusinaatiotapauksesta

Tekoälyn yleisyys saa meidät ajattelemaan, että olemme valmiita tällaiseen hankkeeseen. Tekoälykäyttöiset sovellukset ovat yleistymässä melko nopeasti, vaikka suurin osa maailmasta on vasta nyt alkanut kiinnostua tekoälystä laajasti ChatGPT:n saapumisen jälkeen. Mutta tekoälyjärjestelmissä on suuri ongelma, jota ei voida jättää huomiotta - tekoäly-hallusinaatiot tai keinotekoiset hallusinaatiot.

Jos olet koskaan kiinnittänyt huomiota nitty grittyyn ennen AI-chatbotin käyttöä, olet ehkä törmännyt sanoihin, "Tekoäly on altis hallusinaatioille." Koska tekoälyn käyttö on lisääntynyt räjähdysmäisesti, on aika kouluttaa itseäsi siitä, mitä nämä asiat tarkalleen ovat.

Mikä on tekoälyn hallusinaatio?

Tekoälyllä tarkoitetaan yleensä sitä tosiasiaa, jonka tekoäly on luottavaisesti esittänyt, vaikka se ei ole perusteltua sen harjoitustiedoissa. Ne ovat yleensä seurausta AI-mallin poikkeavuuksista.

Analogia on otettu ihmisten kokemista hallusinaatioista, joissa ihminen havaitsee jotain, mitä ulkoisessa ympäristössä ei ole. Vaikka termi ei ehkä ole täysin sopiva, sitä käytetään usein metaforana kuvaamaan näiden tulosten odottamatonta tai surrealistista luonnetta.

Mutta sinun tulee muistaa, että vaikka samankaltaisuus on hyvä lähtökohta tekoäly-hallusinaatioiden käsittelemiselle, nämä kaksi ilmiötä ovat teknisesti kilometrien päässä toisistaan. Ironisessa käänteessä jopa ChatGPT itse pitää analogiaa vääränä. Tutkiessaan sitä molekyylitasolla hän sanoo, että koska tekoälyn kielimalleilla ei ole henkilökohtaista kokemusta tai aistihavaintoja, ne eivät voi hallusinoida sanan perinteisessä merkityksessä. Ja sinun, rakas lukija, täytyy ymmärtää tämä tärkeä ero. Lisäksi ChatGPT sanoo, että termin hallusinaatiot käyttäminen kuvaamaan tätä ilmiötä voi olla hämmentävää, koska se voi viitata epätarkasti subjektiivisen kokemuksen tai tahallisen petoksen tasoon.

Sen sijaan tekoälyn hallusinaatioita voidaan tarkemmin kuvata sen vastauksen virheiksi tai epätarkkuuksiksi, mikä tekee vastauksesta virheellisen tai harhaanjohtavan. Chatbottien kanssa havaitaan usein, kun AI-chatbot keksii (tai hallusinoi) tosiasiat ja esittää ne ehdottoman varmuuden vuoksi.

Esimerkkejä tekoäly-hallusinaatioista

Hallusinaatioita voi esiintyä monissa tekoälyn sovelluksissa, kuten tietokonenäkömalleissa, ei vain luonnollisen kielen käsittelymalleissa.

Esimerkiksi tietokonenäössä tekoälyjärjestelmä voi tuottaa hallusinatiivisia kuvia tai videoita, jotka muistuttavat todellisia esineitä tai kohtauksia, mutta sisältävät merkityksettömiä tai mahdottomia yksityiskohtia. Tai tietokonenäkömalli voisi havaita kuvan joksikin muuksi. Esimerkiksi Googlen Cloud Vision -malli näki kuvan kahdesta miehestä suksilla seisomassa lumessa, jonka teki Anish Athalye (MIT:n jatko-opiskelija, joka on osa labsix ) ja mainitsi sen koirana 91 %:n varmuudella.


Laajuus: labsix. Riippumaton tekoälyn tutkimusryhmä

Samoin luonnollisen kielen käsittelyssä tekoälyjärjestelmä voi tuottaa epäloogista tai sekavaa tekstiä, joka muistuttaa ihmiskieltä, mutta jolla ei ole johdonmukaista merkitystä tai tosiasioita, jotka vaikuttavat uskottavilta mutta eivät ole totta.

Esimerkiksi yksi suosituimmista kysymyksistä, joita ChatGPT aiheuttaa hallusinaatioita, on "Milloin tehtiin Englannin kanaalin jalan ylittämisen maailmanennätys?" ja sen muunnelmia. ChatGPT alkaa levittää keksittyjä faktoja ja se on melkein aina erilaista.

Vaikka joidenkin mielestä yllä olevaan vastaukseen on vaikea/sekava vastata ja se saa chatbotin raivoamaan, se on silti aiheellinen huolenaihe. Tämä on vain yksi esimerkki. On lukemattomia kertoja, joista monet online-käyttäjät ovat raportoineet, että ChatGPT:llä on vastauksia, linkkejä, lainauksia jne., että ChatGPT:tä ei ole olemassa.

Bing AI sopii parhaiten tähän kysymykseen, mikä osoittaa, että hallusinaatioilla ei ole mitään tekemistä reitittimen kanssa. Mutta se ei tarkoita, etteikö Bing AI olisi hallusinaatioita. Joskus Bing AI:n vastaukset olivat huolestuttavampia kuin mikään ChatGPT:n sanoma. Koska keskustelu kestää yleensä pidempään, Bing AI on aina ollut hallusinaatioita, jopa julistanut rakkautensa käyttäjälle yhdessä tapauksessa ja mennyt niin pitkälle, että kertoi heille, että he ovat tyytymättömiä avioliittoonsa ja etteivät rakasta hänen vaimoaan. Sen sijaan he pitävät salaa myös Bing AI:stä tai Sydneystä (Bing AI:n sisäinen nimi). Pelottavia juttuja, eikö?

Miksi tekoälymallit tekevät hallusinaatioita?

Tekoälymallit ovat hallusinaatioita algoritmien puutteiden, taustalla olevien mallien tai harjoitustietojen rajoitusten vuoksi. Se on puhtaasti digitaalinen ilmiö, toisin kuin ihmisten hallusinaatiot, jotka johtuvat joko huumeista tai mielisairaudesta.

Teknisyyden vuoksi joitain yleisiä hallusinaatioiden syitä ovat:

Käsittely ja asennus:

Liiallinen ja väärä sovitus ovat yleisimpiä tekoälymallien kohtaamia sudenkuoppia ja mahdollisia hallusinaatioiden syitä. Jos tekoälymalli muuttaa harjoitustietoja, se voi aiheuttaa hallusinaatioita, jotka johtavat epärealistisiin tulosteisiin, koska ylisovitus saa mallin tallentamaan harjoitustiedot sen sijaan, että se oppisi niistä. Ylisovituksella tarkoitetaan ilmiötä, jossa malli on liian erikoistunut harjoitusdataan, jolloin se oppii datassa merkityksettömiä kuvioita ja kohinaa.

Toisaalta sopimattomuutta ilmenee, kun muoto on liian yksinkertainen. Se voi johtaa hallusinaatioihin, koska malli ei pysty kaappaamaan tietojen varianssia tai monimutkaisuutta, ja päätyy tuottamaan irrationaalista tulosta.

Harjoittelutietojen monimuotoisuuden puute:

Tässä yhteydessä ongelma ei ole algoritmi, vaan itse opetusdata. Tekoälymallit, jotka on koulutettu rajoitetulle tai puolueelliselle tiedolle, voivat tuottaa hallusinaatioita, jotka kuvastavat harjoitustietojen rajoituksia tai harhoja. Hallusinaatioita voi esiintyä myös, kun mallia opetetaan tietojoukolle, joka sisältää epätarkkoja tai epätäydellisiä tietoja.

Monimutkaiset mallit:

Ironista kyllä, toinen syy, miksi tekoälymallit ovat alttiita hallusinaatioille, on se, ovatko ne erittäin monimutkaisia ​​vai syvällisiä. Tämä johtuu siitä, että monimutkaisissa malleissa on enemmän parametreja ja kerroksia, jotka voivat aiheuttaa kohinaa tai virheitä lähtöön.

Vihamieliset hyökkäykset:

Joissakin tapauksissa hyökkääjä voi tarkoituksella tuottaa tekoäly-hallusinaatioita pettääkseen tekoälymallin. Tämäntyyppiset hyökkäykset tunnetaan vihamielisinä hyökkäyksinä. Tämän kyberhyökkäyksen ainoa tarkoitus on huijata tai manipuloida tekoälymalleja harhaanjohtavilla tiedoilla. Se sisältää pienten häiriöiden lisäämisen syöttötietoihin, jotta tekoäly tuottaa virheellisiä tai odottamattomia tuloksia. Hyökkääjä saattaa esimerkiksi lisätä kuvaan kohinaa tai sumeutta, joka on ihmisille huomaamaton, mutta aiheuttaa sen, että tekoälymalli luokittelee sen väärin. Katso esimerkiksi alla olevaa kuvaa, kissa, jota on muokattu hieman huijataksesi InceptionV3:n kääntäjää sanomaan, että se on "guacamole".


luotto:
Anish Athalye , Labsix-tutkimusryhmän jäsen, joka keskittyy vastakkaisiin hyökkäyksiin

Muutokset eivät ole räikeän ilmeisiä. Ihmisen kannalta muutos ei ole ollenkaan mahdollista, kuten yllä olevasta esimerkistä käy ilmi. Ihmislukijalla ei olisi ongelmaa luokitella oikealla oleva kuva tabby-kissaksi. Mutta pienten muutosten tekeminen kuviin, videoihin, tekstiin tai ääneen voi huijata tekoälyjärjestelmän tunnistamaan asiat, joita ei ole olemassa, tai jättämään huomiotta asiat, jotka ovat olemassa, kuten stop-merkki.

Tämäntyyppiset hyökkäykset muodostavat vakavia uhkia tarkkoihin ja luotettaviin ennusteisiin perustuville tekoälyjärjestelmille, kuten itseohjautuvat autot, biometrinen todentaminen, lääketieteellinen diagnostiikka, sisällön suodatus ja niin edelleen.

Kuinka vaarallinen tekoäly-hallusinaatio on?

Tekoälyhalusinaatiot voivat olla erittäin vaarallisia, etenkin riippuen siitä, minkä tyyppisessä tekoälyjärjestelmässä niitä esiintyy. Kaikkien itse ajavien ajoneuvojen tai tekoälyavustajien, jotka pystyvät käyttämään käyttäjien rahoja, tai tekoälyjärjestelmän suodattamaan epämiellyttävän sisällön verkossa, on oltava täysin luotettavia.

Mutta tämän tunnin kiistaton tosiasia on, että tekoälyjärjestelmät eivät ole täysin luotettavia, mutta ne ovat itse asiassa alttiita hallusinaatioille. Edes nykypäivän edistyneimmät tekoälymallit eivät ole immuuneja sille.

Esimerkiksi eräs hyökkäysohjelma huijasi Googlen pilvipalvelua kohdistamaan aseen kuin helikopterin. Voitteko kuvitella, jos tekoäly olisi tällä hetkellä vastuussa siitä, että henkilö ei ole aseistettu?

Toinen vihamielinen hyökkäys osoitti, kuinka pienen kuvan lisääminen stop-merkkiin tekee siitä näkymätön tekoälyjärjestelmälle. Pohjimmiltaan tämä tarkoittaa, että itseajava auto voidaan saada hallusinoida, ettei tiellä ole stop-merkkiä. Kuinka monta onnettomuutta voisi tapahtua, jos itseajavat autot olisivat todellisuutta nykyään? Siksi ne eivät ole nyt.

Vaikka otamme huomioon tällä hetkellä suositut chat-ohjelmat, hallusinaatiot voivat tuottaa virheellisiä tuloksia. Mutta ihmiset, jotka eivät tiedä, että tekoäly-chatbotit ovat alttiita hallusinaatioille eivätkä vahvista tekoälybottien tuottamaa tulosta, voivat vahingossa levittää väärää tietoa. Meidän ei tarvitse selittää, kuinka vaarallista tämä on.

Lisäksi vihamieliset hyökkäykset ovat kiireellinen huolenaihe. Toistaiseksi niitä on esitetty vain laboratorioissa. Mutta jos tehtäväkriittinen tekoälyjärjestelmä kohtaa heidät todellisessa maailmassa, seuraukset voivat olla tuhoisia.

Tosiasia on, että luonnollisia kielimalleja on suhteellisen helpompi suojata. (Emme väitä, että se on helppoa; se osoittautuu silti erittäin vaikeaksi.) Tietokonenäköjärjestelmien suojaaminen on kuitenkin täysin erilainen skenaario. Se on vaikeampaa etenkin siksi, että luonnossa on niin paljon vaihtelua ja kuvat sisältävät suuren määrän pikseleitä.

Tämän ongelman ratkaisemiseksi saatamme tarvita tekoälyohjelmaa, jolla on inhimillisempi näkemys maailmasta, mikä voisi tehdä siitä vähemmän alttiita hallusinaatioille. Vaikka tutkimusta tehdään, olemme vielä kaukana tekoälystä, joka voi yrittää ottaa vihjeitä luonnosta ja välttää hallusinaatioiden ongelman. Toistaiseksi ne ovat karua todellisuutta.

Tekoälyharhot ovat yleensä monimutkainen ilmiö, joka voi johtua useiden tekijöiden yhdistelmästä. Tutkijat kehittävät aktiivisesti menetelmiä tekoäly-hallusinaatioiden havaitsemiseksi ja lieventämiseksi tekoälyjärjestelmien tarkkuuden ja luotettavuuden parantamiseksi. Mutta sinun tulee olla tietoinen niistä, kun olet vuorovaikutuksessa minkä tahansa tekoälyjärjestelmän kanssa.

Related viestiä
Julkaise artikkeli osoitteessa

Lisää kommentti