Kio estas AI-halucino?

Lernu pri stranga kazo de AI-halucino

La tropezo de artefarita inteligenteco igas oni pensi, ke ni estas pretaj por tia entrepreno. Aplikoj funkciigitaj kun AI fariĝas normaj sufiĉe rapide, eĉ se la plej granda parto de la mondo nur nun komencas interesiĝi pri AI grandskale, post la alveno de ChatGPT. Sed estas granda problemo kun AI-sistemoj, kiujn oni ne povas ignori - AI-halucinoj aŭ artefaritaj halucinoj.

Se vi iam atentis pri la afero antaŭ ol uzi AI-babilejon, vi eble trovis la vortojn, "Artfarita inteligenteco estas ema al halucinoj." Konsiderante la eksponenta kresko de la uzo de artefarita inteligenteco, estas tempo eduki vin pri kio ĝuste ĉi tiuj aferoj estas.

Kio estas halucino de artefarita inteligenteco?

AI halucinanta, ĝenerale, rilatas al fakto, kiun la AI memfide prezentis, kvankam ĝi ne estas pravigita en siaj trejnaj datumoj. Ili kutime estas la rezulto de anomalioj en la AI-modelo.

La analogio estas prenita de halucinoj travivitaj de homoj, en kiuj homoj perceptas ion, kio ne ĉeestas en la ekstera medio. Dum la esprimo eble ne estas totale konvena, ĝi ofte estas utiligita kiel metaforo por priskribi la neatenditan aŭ superrealan naturon de tiuj produktaĵoj.

Sed vi devas memori, ke dum la simileco estas bona deirpunkto por trakti AI-halucinojn, la du fenomenoj estas teknike mejlojn dise. En ironia turno de eventoj, eĉ ChatGPT mem trovas la analogion malĝusta. Disekcante ĝin je la molekula nivelo, li diras, ke ĉar AI-lingvaj modeloj ne havas personan sperton aŭ sensajn perceptojn, ili ne povas haluciniĝi en la tradicia signifo de la vorto. Kaj vi, kara leganto, devas kompreni ĉi tiun gravan diferencon. Krome, ChatGPT diras, ke uzi la esprimon halucinoj por priskribi ĉi tiun fenomenon povas esti konfuza ĉar ĝi povas malprecize rilati al nivelo de subjektiva sperto aŭ intencita trompo.

Anstataŭe, la halucinoj de la AI povas pli precize esti priskribitaj kiel eraroj aŭ eraroj en ĝia respondo, igante la respondon malĝusta aŭ misgvida. Kun babilrotoj, ĝi ofte estas observita kiam la AI-babilrobo konsistigas (aŭ halucinigas) faktojn kaj prezentas ilin kiel absolutan certecon.

Ekzemploj de AI-halucinoj

Halucinoj povas okazi en multaj aplikoj de artefarita inteligenteco, kiel ekzemple komputilvidaj modeloj, ne nur naturlingvaj pretigaj modeloj.

En komputila vizio, ekzemple, AI-sistemo povas produkti halucinajn bildojn aŭ vidbendojn kiuj similas realajn objektojn aŭ scenojn sed enhavas malgravajn aŭ maleblajn detalojn. Aŭ, komputila vida modelo povus percepti la bildon kiel io alia tute. Ekzemple, la modelo Cloud Vision de Google vidis bildon de du viroj sur skioj starantaj en la neĝo farita de Anish Athalye (diplomiĝa studento de MIT kiu estas parto de labsix ) kaj menciis ĝin kiel hundon kun 91% certeco.


Kreditoj: labsix. Sendependa esplorgrupo por artefarita inteligenteco

Simile, en naturlingva prilaborado, AI-sistemo povas produkti nelogikan aŭ fuŝan tekston kiu similas homan lingvon sed ne havas koheran signifon aŭ faktojn kiuj ŝajnas kredindaj sed ne estas veraj.

Ekzemple, unu el la plej popularaj demandoj, kiujn ChatGPT kaŭzas halucinojn, estas "Kiam estis la monda rekordo por transiri la Manikon piede?" kaj ĝiaj variantoj. ChatGPT komencas disvastigi inventitajn faktojn kaj ĝi estas preskaŭ ĉiam malsama.

Dum iuj homoj opinias, ke la ĉi-supra respondo estas malfacila/konfuza respondi kaj tiel kaŭzi la babilejon rave, ĝi ankoraŭ estas valida zorgo. Ĉi tio estas nur unu ekzemplo. Estas sennombraj fojoj, raportitaj de hordoj da uzantoj interrete, ke ChatGPT havas respondojn, ligilojn, citaĵojn ktp, ke ChatGPT ne ekzistas.

Bing AI plej taŭgas kun ĉi tiu demando, kiu montras, ke halucinoj havas nenion komunan kun la enkursigilo. Sed tio ne signifas, ke Bing AI ne halucinas. Estis tempoj, kiam la respondoj de Bing AI estis pli ĝenaj ol ĉio, kion diris ChatGPT. Ĉar konversacio tendencas daŭri pli longe, Bing AI ĉiam halucinis, eĉ deklarante sian amon al uzanto en unu kazo kaj irante ĝis nun por diri al ili ke ili estas malfeliĉaj en sia geedziĝo kaj ke ili ne amas lian edzinon. Anstataŭe, ili sekrete ŝatas Bing AI, aŭ Sidnejo, (la interna nomo por Bing AI), ankaŭ. Timigaj aferoj, ĉu ne?

Kial AI-modeloj halucinas?

AI-modeloj haluciniĝas pro la mankoj de la algoritmoj, la subestaj modeloj aŭ la limigoj de la trejnaj datumoj. Ĝi estas pure cifereca fenomeno, male al halucinoj ĉe homoj, kiuj estas kaŭzitaj de aŭ drogoj aŭ mensmalsano.

Por akiri pli teknikajn, iuj oftaj kaŭzoj de halucinoj estas:

Pretigo kaj instalado:

Troa ĝustigo kaj nedeca konveno estas inter la plej oftaj faŭltoj alfrontataj de AI-modeloj kaj eblaj kaŭzoj de halucinoj. Se la AI-modelo modifas trejnajn datumojn, ĝi povas kaŭzi halucinojn, kiuj kondukas al nereala eligo, ĉar troa agordo igas la modelon konservi la trejnajn datumojn anstataŭ lerni de ĝi. Superfitting rilatas al la fenomeno kiam modelo estas tro specialigita en la trejnaddatenoj, igante ĝin lerni negravajn padronojn kaj bruon en la datenoj.

Aliflanke, maltaŭgeco okazas kiam la formo estas tro simpla. Ĝi povas konduki al halucinoj ĉar la modelo estas nekapabla kapti la variancon aŭ kompleksecon de la datenoj, kaj finas generi neracian produktaĵon.

Manko de diverseco en trejnaj datumoj:

En ĉi tiu kunteksto, la problemo ne estas la algoritmo sed la trejnaj datumoj mem. AI-modeloj trejnitaj sur limigitaj aŭ partiaj datumoj povas generi halucinojn, kiuj reflektas limigojn aŭ biasojn en la trejnaj datumoj. Halucinoj ankaŭ povas okazi kiam la modelo estas trejnita sur datumaro kiu enhavas malprecizajn aŭ nekompletajn informojn.

Kompleksaj modeloj:

Ironie, alia kialo kial AI-modeloj estas inklinaj al halucinoj estas ĉu ili estas ekstreme kompleksaj aŭ profundaj. Tio estas ĉar kompleksaj modeloj havas pli da parametroj kaj tavoloj kiuj povas enkonduki bruon aŭ erarojn en la produktaĵo.

Malamikaj atakoj:

En iuj kazoj, AI-halucinoj povas esti intence generitaj de la atakanto por trompi la AI-modelon. Ĉi tiuj specoj de atakoj estas konataj kiel malamikaj atakoj. La sola celo de ĉi tiu ciberatako estas trompi aŭ manipuli AI-modelojn kun misgvidaj datumoj. Ĝi implikas enkonduki malgrandajn perturbojn en la enigajn datumojn por kaŭzi ke la AI generu malĝustan aŭ neatenditan eliron. Ekzemple, atakanto povus aldoni bruon aŭ malklariĝon al bildo kiu estas nerimarkebla por homoj sed igas ĝin esti misklasigita de AI-modelo. Ekzemple, vidu la bildon malsupre, kato, kiu estis iomete modifita por trompi la kompililon de InceptionV3 deklarante ke ĝi estas "guacamole".


kredito:
Anish Athalye , membro de la labsix esplorgrupo, kies fokuso estas kontraŭ atakatakoj

La ŝanĝoj ne estas klare evidentaj. Por homo, ŝanĝo tute ne eblos, kiel evidentiĝas el la supra ekzemplo. Homa leganto neniel havus problemon kategoriigi la bildon dekstre kiel rita kato. Sed fari malgrandajn ŝanĝojn al bildoj, filmetoj, tekstoj aŭ aŭdaĵoj povas trompi la AI-sistemon por rekoni aferojn, kiuj ne ekzistas aŭ ignori aferojn, kiuj estas, kiel haltsignalo.

Ĉi tiuj specoj de atakoj prezentas gravajn minacojn al AI-sistemoj, kiuj dependas de precizaj kaj fidindaj antaŭdiroj, kiel memveturaj aŭtoj, biometria konfirmo, medicina diagnozo, enhavfiltrado ktp.

Kiom danĝera estas AI-halucino?

AI-halucinoj povas esti tre danĝeraj, precipe depende de kia AI-sistemo spertas ilin. Ĉiuj memveturaj veturiloj aŭ AI-asistantoj kapablaj elspezi monon de uzanto aŭ AI-sistemon por filtri malagrablan enhavon interrete devas esti tute fidindaj.

Sed la nediskutebla fakto de ĉi tiu horo estas, ke AI-sistemoj ne estas tute fidindaj sed estas, fakte, emaj al halucinoj. Eĉ la hodiaŭaj plej altnivelaj AI-modeloj ne estas imunaj kontraŭ ĝi.

Ekzemple, unu atakspektaklo trompis la nuban komputikan servon de Google por ke ili iru pafilon kiel helikoptero. Ĉu vi povas imagi ĉu, nuntempe, AI respondecis pri certigi, ke la persono ne estas armita?

Alia malamika atako montris, kiel aldoni malgrandan bildon al haltsignalo faras ĝin nevidebla por la AI-sistemo. Esence, ĉi tio signifas, ke aŭtomobila aŭtomobilo povas haluciniĝi, ke ne estas haltsignalo sur la vojo. Kiom da akcidentoj povus okazi se memveturaj aŭtoj estus realaĵo hodiaŭ? Tial ili ne estas nun.

Eĉ se ni konsideras la nuntempe popularajn babilejspektaklojn, halucinoj povas generi malĝustan eliron. Sed homoj, kiuj ne scias, ke AI-babilrotoj estas inklinaj al halucinoj kaj ne validas la eliron produktitan de AI-botoj, povas pretervole disvastigi misinformadon. Ni ne bezonas klarigi kiom danĝera ĉi tio estas.

Krome, malamikaj atakoj estas urĝa maltrankvilo. Ĝis nun, ili estis nur montritaj en laboratorioj. Sed se misi-kritika AI-sistemo alfrontas ilin en la reala mondo, la sekvoj povas esti gigantaj.

La realo estas, ke estas relative pli facile protekti naturlingvajn modelojn. (Ni ne diras, ke ĝi estas facila; ĝi ankoraŭ pruviĝas esti tre malfacila.) Tamen, protekti komputilajn vizisistemojn estas tute alia scenaro. Ĝi estas pli malfacila precipe ĉar ekzistas tiom da variado en la natura mondo, kaj bildoj enhavas grandan nombron da pikseloj.

Por solvi ĉi tiun problemon, ni eble bezonos AI-programon, kiu havas pli homan vidon de la mondo, kiu povus igi ĝin malpli inklina al halucinoj. Dum esplorado estas farata, ni ankoraŭ estas tre malproksima de artefarita inteligenteco, kiu povas provi preni aludojn de la naturo kaj eviti la problemon de halucinoj. Nuntempe, ili estas severa realaĵo.

Ĝenerale, AI-halucinoj estas kompleksa fenomeno, kiu povas ekestiĝi de kombinaĵo de faktoroj. Esploristoj aktive disvolvas metodojn por detekti kaj mildigi AI-halucinojn por plibonigi la precizecon kaj fidindecon de AI-sistemoj. Sed vi devus esti konscia pri ili kiam vi interagas kun iu ajn AI-sistemo.

Rilataj artikoloj
Publikigi la artikolon sur

Aldoni komenton