Wat ass eng AI Halluzinatioun?

Léiert iwwer e komeschen Fall vun enger AI Halluzinatioun

D'Prévalence vun der kënschtlecher Intelligenz mécht een ze denken, mir si prett fir esou eng Entreprise. AI-ugedriwwen Uwendungen ginn zimlech séier Standard, och wann déi meescht vun der Welt eréischt elo un AI op grouss Skala interesséiert ass, no der Arrivée vum ChatGPT. Awer et gëtt e grousse Problem mat AI Systemer déi net ignoréiert kënne ginn - AI Halluzinatiounen, oder kënschtlech Halluzinatiounen.

Wann Dir jeemools op nitty gritty opgepasst hutt ier Dir en AI Chatbot benotzt hutt, hutt Dir vläicht d'Wierder begéint, "Kënschtlech Intelligenz ass ufälleg fir Halluzinatiounen." Mat der exponentieller Erhéijung vun der Notzung vu kënschtlecher Intelligenz ass et Zäit Iech selwer ze educéieren wat genau dës Saache sinn.

Wat ass eng kënschtlech Intelligenz Halluzinatioun?

Eng AI Halluzinatioun, am Allgemengen, bezitt sech op e Fakt datt den AI zouversiichtlech presentéiert huet, och wann et net a senge Trainingsdaten gerechtfäerdegt ass. Si sinn normalerweis d'Resultat vun Anomalien am AI Modell.

D'Analogie gëtt aus Halluzinatioune geholl, déi de Mënsch erlieft huet, an deenen d'Mënschen eppes erkennen, wat net am externen Ëmfeld präsent ass. Och wann de Begrëff vläicht net ganz ugepasst ass, gëtt et dacks als Metapher benotzt fir déi onerwaart oder surreal Natur vun dësen Outputen ze beschreiwen.

Awer Dir sollt drun erënneren datt wärend d'Ähnlechkeet e gudde Startpunkt ass fir mat AI Halluzinatiounen ze handelen, déi zwee Phänomener sinn technesch Meilen auserneen. An engem ironeschen Tour vun Evenementer, souguer ChatGPT selwer fënnt d'Analogie falsch. Op molekulare Niveau ze dissektéieren, seet hien datt well AI Sproochmodeller keng perséinlech Erfahrung oder sensoresch Perceptiounen hunn, kënnen se net am traditionelle Sënn vum Wuert halluzinéieren. An Dir, léif Lieser, musst dëse wichtegen Ënnerscheed verstoen. Ausserdeem seet ChatGPT datt d'Benotzung vum Begrëff Halluzinatioune fir dëst Phänomen ze beschreiwen kann duerchernee sinn, well et ongenau op en Niveau vun der subjektiver Erfahrung oder enger virsiichteger Täuschung bezéie kann.

Amplaz kënnen d'Halluzinatiounen vun der AI méi präzis als Feeler oder Ongenauegkeeten a senger Äntwert beschriwwe ginn, wat d'Äntwert falsch oder irféierend mécht. Mat Chatbots gëtt et dacks beobachtet wann den AI ​​Chatbot Fakten ausstellt (oder halluzinéiert) a presentéiert se als absolut Sécherheet.

Beispiller vun AI Halluzinatiounen

Halluzinatioune kënnen a ville Applikatioune vu kënschtlecher Intelligenz optrieden, sou wéi Computervisiounsmodeller, net nëmmen natierlech Sproochveraarbechtungsmodeller.

An der Computervisioun, zum Beispill, kann en AI System halluzinatoresch Biller oder Videoe produzéieren déi no realen Objeten oder Szenen ausgesinn, awer onkonsequent oder onméiglech Detailer enthalen. Oder, e Computervisiounsmodell kéint d'Bild als eppes ganz anescht gesinn. Zum Beispill huet de Google Cloud Vision Modell e Bild vun zwee Männer op Ski gesinn, déi am Schnéi stinn, gemaach vum Anish Athalye (e MIT Graduéierter Student deen Deel vun labsix ) an ernimmt et als Hond mat 91% Sécherheet.


Credits: labsix. Eng onofhängeg Fuerschungsgrupp fir kënschtlech Intelligenz

Ähnlech, an der natierlecher Sproochveraarbechtung, kann en AI-System illogeschen oder verkierzten Text produzéieren, deen d'mënschlech Sprooch ähnelt, awer keng kohärent Bedeitung oder Fakten huet, déi glafwierdeg schéngen, awer net wouer sinn.

Zum Beispill, eng vun de populäersten Froen déi ChatGPT Halluzinatioune verursaacht ass "Wéini war de Weltrekord fir den englesche Kanal zu Fouss ze iwwerschreiden?" a seng Varianten. ChatGPT fänkt u gemaachte Fakten ze verbreeden an et ass bal ëmmer anescht.

Wärend e puer Leit mengen datt déi uewe genannte Äntwert schwéier / verwirrend ass ze beäntweren an doduerch de Chatbot ze räissen, ass et ëmmer nach eng valabel Suerg. Dëst ass nëmmen ee Beispill. Et ginn eng Onmass Zäiten, gemellt vun Horde vu Benotzer online, datt ChatGPT Äntwerten huet, Linken, Zitater, etc., datt ChatGPT net existéiert.

Bing AI passt am Beschten mat dëser Fro, déi weist datt Halluzinatiounen näischt mam Router ze dinn hunn. Awer dat heescht net datt Bing AI net halluzinéiert. Et waren Zäiten wou d'Äntwerten vum Bing AI méi beonrouegend waren wéi alles wat ChatGPT gesot huet. Zënter datt d'Gespréich méi laang dauert, huet de Bing AI ëmmer halluzinéiert, souguer an enger Instanz seng Léift zu engem Benotzer erkläert an esou wäit gaang fir hinnen ze soen datt se an hirem Bestietnes onglécklech sinn an datt se seng Fra net gär hunn. Amplaz si se heemlech gär op Bing AI, oder Sydney, (den internen Numm fir Bing AI), och. Schrecklech Saachen, richteg?

Firwat halluzinéieren AI Modeller?

AI Modeller halluzinéieren wéinst de Mängel vun den Algorithmen, den ënnerierdesche Modeller oder d'Aschränkungen vun den Trainingsdaten. Et ass e reng digitale Phänomen, am Géigesaz zu Halluzinatioune bei Mënschen, déi entweder duerch Drogen oder mental Krankheet verursaacht ginn.

Fir méi technesch ze ginn, sinn e puer allgemeng Ursaachen vun Halluzinatiounen:

Veraarbechtung an Installatioun:

Overfitting a falsch Upassung gehéieren zu den heefegsten Falen, déi vun AI Modeller konfrontéiert sinn a méiglech Ursaachen vun Halluzinatiounen. Wann den AI Modell Trainingsdaten ännert, kann et Halluzinatioune verursaachen, déi zu onrealisteschen Output féieren, well Iwwerfitting verursaacht datt de Modell d'Trainingsdaten späichert anstatt dovunner ze léieren. Overfitting bezitt sech op d'Phänomen wann e Modell ze spezialiséiert ass an den Trainingsdaten, sou datt et irrelevant Mustere a Kaméidi an den Daten léiert.

Op der anerer Säit geschitt Inappropriateness wann d'Form ze einfach ass. Et kann zu Halluzinatioune féieren, well de Modell net fäeg ass d'Varianz oder d'Komplexitéit vun den Donnéeën z'erfaassen, a schlussendlech irrational Output generéiert.

Mangel u Diversitéit an Trainingsdaten:

An dësem Kontext ass de Problem net den Algorithmus, mee d'Trainingsdaten selwer. AI Modeller trainéiert op limitéierten oder biased Daten kënnen Halluzinatioune generéieren déi Aschränkungen oder Biases an den Trainingsdaten reflektéieren. Halluzinatioune kënnen och optrieden wann de Modell op engem Datesaz trainéiert gëtt deen ongenau oder onkomplett Informatioun enthält.

Komplex Modeller:

Ironescherweis ass en anere Grond firwat AI Modeller ufälleg fir Halluzinatioune sinn ob se extrem komplex oder déif sinn. Dëst ass well komplex Modeller méi Parameteren a Schichten hunn, déi Kaméidi oder Feeler am Ausgang aféieren kënnen.

Feindlech Attacken:

A verschiddene Fäll kënnen AI Halluzinatioune bewosst vum Ugräifer generéiert ginn fir den AI Modell ze täuschen. Dës Aarte vun Attacke ginn als feindlech Attacke bekannt. Den eenzegen Zweck vun dëser Cyberattack ass AI Modeller mat falschen Donnéeën ze tricken oder ze manipuléieren. Et ëmfaasst kleng Stéierungen an d'Inputdaten aféieren fir datt d'AI falsch oder onerwaart Output generéiert. Zum Beispill kann en Ugräifer Kaméidi oder Blur un e Bild addéieren dat fir Mënschen onmerkbar ass awer verursaacht datt et vun engem AI Modell falsch klasséiert gëtt. Zum Beispill, kuckt d'Bild hei drënner, eng Kaz, déi liicht geännert gouf fir den InceptionV3 Compiler ze trickéieren fir ze soen datt et "guacamole" ass.


Kredit:
Anish Athalye , e Member vun der Labsix Fuerschungsgrupp, deem säi Fokus op Géigestänn ass

D'Ännerungen sinn net glänzend offensichtlech. Fir e Mënsch wäert Ännerung guer net méiglech sinn, wéi aus dem uewe genannte Beispill evident ass. E mënschleche Lieser hätt kee Problem d'Bild riets als Tabby Kaz ze kategoriséieren. Awer kleng Ännerungen u Biller, Videoen, Text oder Audio maachen kann den AI System tricken fir Saachen ze erkennen déi net do sinn oder Saachen ze ignoréieren déi sinn, wéi e Stop Schëld.

Dës Aarte vun Attacke stellen sérieux Gefore fir AI Systemer, déi op präzis an zouverlässeg Prognosen vertrauen, sou wéi selbstfahrend Autoen, biometresch Verifizéierung, medizinesch Diagnostik, Inhaltsfilter, asw.

Wéi geféierlech ass eng AI Halluzinatioun?

AI Halluzinatioune kënne ganz geféierlech sinn, besonnesch jee no wéi eng Zort AI System se erliewt. All selbstfahrend Gefierer oder AI Assistenten, déi fäeg sinn Benotzer Suen auszeginn oder en AI System fir onangenehmen Inhalt online ze filteren, musse komplett zouverlässeg sinn.

Awer den indisputable Fakt vun dëser Stonn ass datt AI Systemer net ganz vertrauenswierdeg sinn, awer tatsächlech ufälleg fir Halluzinatiounen. Och déi modernste AI Modeller vun haut sinn net immun dofir.

Zum Beispill, eng Attacksshow huet dem Google säi Cloud Computing-Service getraff fir eng Pistoul wéi en Helikopter ze halen. Kënnt Dir Iech virstellen, ob am Moment AI verantwortlech wier fir sécherzestellen datt d'Persoun net bewaffnet ass?

Eng aner feindlech Attack huet bewisen wéi e klengt Bild un e Stoppschëld bäizefüügt et fir den AI System onsichtbar mécht. Am Wesentlechen heescht dat datt e selbstfahrenden Auto ka gemaach ginn ze halluzinéieren datt et kee Stoppschëld op der Strooss ass. Wéi vill Accidenter kéinte geschéien wann selbstfahrend Autoen haut eng Realitéit wieren? Dofir sinn se elo net.

Och wa mir déi aktuell populär Chat Shows berücksichtegen, Halluzinatioune kënne falsch Ausgang generéieren. Awer Leit déi net wëssen datt AI Chatbots ufälleg fir Halluzinatioune sinn an d'Ausgab net validéieren, déi vun AI Bots produzéiert gëtt, kënnen onbedéngt falsch Informatioun verbreeden. Mir mussen net erkläre wéi geféierlech dat ass.

Ausserdeem sinn feindlech Attacke eng dréngend Suerg. Bis elo sinn se nëmmen a Laboratoiren gewisen. Awer wann e missionskriteschen AI System se an der realer Welt konfrontéiert, kënnen d'Konsequenze zerstéierend sinn.

D'Realitéit ass datt et relativ méi einfach ass natierlech Sproochmodeller ze schützen. (Mir soen net datt et einfach ass; et beweist sech nach ëmmer ganz schwéier.) Wéi och ëmmer, Computervisiounssystemer ze schützen ass e ganz anere Szenario. Et ass méi schwéier besonnesch well et sou vill Variatioun an der natierlecher Welt ass, a Biller enthalen eng grouss Zuel vu Pixelen.

Fir dëse Problem ze léisen, brauche mir vläicht en AI Programm deen eng méi mënschlech Vue op d'Welt huet, wat et manner ufälleg fir Halluzinatioune kéint maachen. Wärend d'Fuerschung gemaach gëtt, si mir nach wäit vun enger kënschtlecher Intelligenz, déi versichen, Hiweiser aus der Natur ze huelen an de Problem vun Halluzinatiounen z'evitéieren. Fir de Moment sinn se eng haart Realitéit.

Am Allgemengen sinn AI Halluzinatiounen e komplexe Phänomen, deen aus enger Kombinatioun vu Faktoren entstoe kann. Fuerscher entwéckelen aktiv Methoden fir AI Halluzinatiounen z'entdecken an ze reduzéieren fir d'Genauegkeet an Zouverlässegkeet vun AI Systemer ze verbesseren. Awer Dir sollt se bewosst sinn wann Dir mat all AI System interagéiert.

Zesummenhang posts
Verëffentlechen den Artikel op

Füügt e Kommentar derbäi