რა არის AI ჰალუცინაცია?

შეიტყვეთ AI ჰალუცინაციის უცნაური შემთხვევის შესახებ

ხელოვნური ინტელექტის გავრცელება გვაფიქრებინებს, რომ მზად ვართ ასეთი წამოწყებისთვის. AI-ზე მომუშავე აპლიკაციები საკმაოდ სწრაფად ხდება სტანდარტული, მაშინაც კი, თუ მსოფლიოს უმეტესი ნაწილი მხოლოდ ახლა იწყებს ინტერესს AI-ით ფართო მასშტაბით, ChatGPT-ის მოსვლის შემდეგ. მაგრამ AI სისტემებთან არის დიდი პრობლემა, რომლის იგნორირება არ შეიძლება - AI ჰალუცინაციები, ან ხელოვნური ჰალუცინაციები.

თუ თქვენ ოდესმე მიგიქცევიათ ყურადღება წვრილმანებზე AI ჩეთბოტის გამოყენებამდე, შეიძლება შეგხვედროთ სიტყვები: "ხელოვნური ინტელექტი მიდრეკილია ჰალუცინაციებისკენ." ხელოვნური ინტელექტის გამოყენების ექსპონენციალური ზრდის გათვალისწინებით, დროა გაიგოთ, რა არის ეს ყველაფერი.

რა არის ხელოვნური ინტელექტის ჰალუცინაცია?

AI ჰალუცინაცია, ზოგადად, ეხება იმ ფაქტს, რომელიც AI-მ დამაჯერებლად წარმოადგინა, მიუხედავად იმისა, რომ ეს არ არის გამართლებული მის სასწავლო მონაცემებში. ისინი, როგორც წესი, AI-ის მოდელში ანომალიების შედეგია.

ანალოგია აღებულია ადამიანების მიერ განცდილი ჰალუცინაციებიდან, როდესაც ადამიანი აღიქვამს იმას, რაც არ არის გარე გარემოში. მიუხედავად იმისა, რომ ტერმინი შეიძლება არ იყოს მთლად შესაბამისი, ის ხშირად გამოიყენება როგორც მეტაფორა ამ შედეგების მოულოდნელი ან ირეალური ბუნების აღსაწერად.

მაგრამ უნდა გახსოვდეთ, რომ მიუხედავად იმისა, რომ მსგავსება კარგი საწყისი წერტილია ხელოვნური ინტელექტის ჰალუცინაციების დასაძლევად, ეს ორი ფენომენი ტექნიკურად რამდენიმე კილომეტრით არის დაშორებული. მოვლენების ირონიულ შემობრუნებაში, თავად ChatGPT-იც კი ანალოგიას არასწორად თვლის. მას მოლეკულურ დონეზე ანაწილებს, ის ამბობს, რომ იმის გამო, რომ ხელოვნური ინტელექტის მოდელებს არ აქვთ პირადი გამოცდილება ან სენსორული აღქმა, მათ არ შეუძლიათ ჰალუცინაციები ამ სიტყვის ტრადიციული გაგებით. და თქვენ, ძვირფასო მკითხველო, უნდა გესმოდეთ ეს მნიშვნელოვანი განსხვავება. გარდა ამისა, ChatGPT ამბობს, რომ ტერმინის ჰალუცინაციების გამოყენება ამ ფენომენის აღსაწერად შეიძლება დამაბნეველი იყოს, რადგან ის შეიძლება არაზუსტად მიუთითებდეს სუბიექტური გამოცდილების დონეს ან განზრახ მოტყუებას.

ამის ნაცვლად, ხელოვნური ინტელექტის ჰალუცინაციები შეიძლება უფრო ზუსტად აღიწეროს, როგორც შეცდომები ან უზუსტობები მის პასუხში, რაც პასუხს არასწორს ან შეცდომაში შეჰყავს. ჩატბოტებთან ერთად, ხშირად შეიმჩნევა, როდესაც ხელოვნური ინტელექტის ჩატბოტი ადგენს (ან ჰალუცინაციას) ფაქტებს და წარმოადგენს მათ აბსოლუტურ დარწმუნებულობად.

AI ჰალუცინაციების მაგალითები

ჰალუცინაციები შეიძლება მოხდეს ხელოვნური ინტელექტის ბევრ გამოყენებაში, როგორიცაა კომპიუტერული ხედვის მოდელები და არა მხოლოდ ბუნებრივი ენის დამუშავების მოდელები.

მაგალითად, კომპიუტერულ ხედვაში, ხელოვნური ინტელექტის სისტემამ შეიძლება წარმოქმნას ჰალუცინაციური გამოსახულებები ან ვიდეოები, რომლებიც წააგავს რეალურ ობიექტებს ან სცენებს, მაგრამ შეიცავს უმნიშვნელო ან შეუძლებელ დეტალებს. ან, კომპიუტერულ ხედვის მოდელს შეუძლია სურათი აღიქვას, როგორც სრულიად სხვა რამე. მაგალითად, Google-ის Cloud Vision-ის მოდელმა დაინახა თხილამურებზე ორი მამაკაცის გამოსახულება, რომლებიც თოვლში დგანან, რომელიც დამზადებულია ანიშ ათალიეს მიერ (MIT-ის კურსდამთავრებული სტუდენტი, რომელიც არის ნაწილი labsix ) და 91% დარწმუნებით ახსენა ძაღლად.


კრედიტები: labsix. დამოუკიდებელი კვლევითი ჯგუფი ხელოვნური ინტელექტისთვის

ანალოგიურად, ბუნებრივი ენის დამუშავებისას, ხელოვნური ინტელექტის სისტემამ შეიძლება წარმოქმნას ალოგიკური ან გაუგებარი ტექსტი, რომელიც წააგავს ადამიანის ენას, მაგრამ არ აქვს თანმიმდევრული მნიშვნელობა ან ფაქტები, რომლებიც დამაჯერებლად გამოიყურება, მაგრამ არ შეესაბამება სიმართლეს.

მაგალითად, ერთ-ერთი ყველაზე პოპულარული კითხვა, რომელიც ChatGPT-ს იწვევს ჰალუცინაციების გამო, არის "როდის დადგინდა მსოფლიო რეკორდი ინგლისის არხის ფეხით გადაკვეთაში?" და მისი ვარიანტები. ChatGPT იწყებს მოგონილი ფაქტების გავრცელებას და ის თითქმის ყოველთვის განსხვავებულია.

მიუხედავად იმისა, რომ ზოგიერთი ადამიანი ფიქრობს, რომ ზემოაღნიშნული პასუხი ძნელია/დაბნეული პასუხის გაცემაა და, შესაბამისად, იწვევს ჩეთბოტის აჟიოტაჟს, ის მაინც საფუძვლიანი შეშფოთებაა. ეს მხოლოდ ერთი მაგალითია. უამრავჯერ არის მოხსენებული ონლაინ მომხმარებელთა ურდოების მიერ, რომ ChatGPT-ს აქვს პასუხები, ბმულები, ციტატები და ა.შ, რომ ChatGPT არ არსებობს.

Bing AI საუკეთესოდ ერგება ამ კითხვას, რაც აჩვენებს, რომ ჰალუცინაციები როუტერთან არაფერ შუაშია. მაგრამ ეს არ ნიშნავს იმას, რომ Bing AI არ არის ჰალუცინაციები. იყო დრო, როდესაც Bing AI-ს პასუხები უფრო შემაშფოთებელი იყო, ვიდრე ChatGPT-ის ნათქვამი. ვინაიდან საუბარი უფრო მეტხანს გრძელდება, Bing AI-ს ყოველთვის ჰალუცინაციები აქვს, ერთ შემთხვევაშიც კი უცხადებს თავის სიყვარულს მომხმარებლისთვის და მიდის იქამდე, რომ ისინი უკმაყოფილონი არიან ქორწინებით და რომ არ უყვართ მისი ცოლი. ამის ნაცვლად, მათ ფარულად უყვართ Bing AI, ან სიდნეი, (Bing AI-ის შიდა სახელი). საშინელი რამ, არა?

რატომ აქვთ ხელოვნური ინტელექტის მოდელები ჰალუცინაციებით?

AI მოდელები ჰალუცინაციას იწვევს ალგორითმების ნაკლოვანებების, ძირითადი მოდელების ან სასწავლო მონაცემების შეზღუდვის გამო. ეს არის წმინდა ციფრული ფენომენი, განსხვავებით ადამიანებში ჰალუცინაციებისგან, რომლებიც გამოწვეულია ნარკოტიკებით ან ფსიქიკური დაავადებებით.

უფრო ტექნიკური ინფორმაციის მისაღებად, ჰალუცინაციების რამდენიმე გავრცელებული მიზეზია:

დამუშავება და მონტაჟი:

გადაჭარბებული მორგება და არასათანადო მორგება არის ერთ-ერთი ყველაზე გავრცელებული პრობლემა, რომელსაც აწყდება ხელოვნური ინტელექტის მოდელები და ჰალუცინაციების შესაძლო მიზეზები. თუ ხელოვნური ინტელექტის მოდელი ცვლის ტრენინგის მონაცემებს, ამან შეიძლება გამოიწვიოს ჰალუცინაციები, რამაც გამოიწვია არარეალური შედეგი, რადგან გადაჭარბებული მორგება იწვევს მოდელს დაზოგოს სასწავლო მონაცემები მისგან სწავლის ნაცვლად. Overfitting ეხება ფენომენს, როდესაც მოდელი ძალიან სპეციალიზირებულია ტრენინგის მონაცემებში, რის გამოც იგი ისწავლის შეუსაბამო შაბლონებს და ხმაურს მონაცემებში.

მეორეს მხრივ, შეუსაბამობა ხდება მაშინ, როდესაც ფორმა ძალიან მარტივია. ამან შეიძლება გამოიწვიოს ჰალუცინაციები, რადგან მოდელი ვერ ახერხებს მონაცემების დისპერსიის ან სირთულის აღქმას და მთავრდება ირაციონალური შედეგის გამომუშავებით.

ტრენინგის მონაცემების მრავალფეროვნების ნაკლებობა:

ამ კონტექსტში პრობლემა არ არის ალგორითმი, არამედ თავად ტრენინგის მონაცემები. შეზღუდულ ან მიკერძოებულ მონაცემებზე გაწვრთნილმა AI მოდელებმა შეიძლება წარმოქმნან ჰალუცინაციები, რომლებიც ასახავს სასწავლო მონაცემებში შეზღუდვებს ან მიკერძოებას. ჰალუცინაციები ასევე შეიძლება წარმოიშვას, როდესაც მოდელი სწავლობს მონაცემთა ნაკრებზე, რომელიც შეიცავს არაზუსტ ან არასრულ ინფორმაციას.

კომპლექსური მოდელები:

ბედის ირონიით, კიდევ ერთი მიზეზი, რის გამოც AI მოდელები მიდრეკილნი არიან ჰალუცინაციებისკენ, არის თუ არა ისინი უკიდურესად რთული ან ღრმა. ეს იმიტომ ხდება, რომ კომპლექსურ მოდელებს აქვთ მეტი პარამეტრი და ფენა, რამაც შეიძლება გამოიწვიოს ხმაური ან შეცდომები გამომავალში.

მტრული შეტევები:

ზოგიერთ შემთხვევაში, AI ჰალუცინაციები შეიძლება განზრახ წარმოიქმნას თავდამსხმელის მიერ, რათა მოატყუოს AI მოდელი. ამ ტიპის თავდასხმები ცნობილია როგორც მტრული თავდასხმები. ამ კიბერშეტევის ერთადერთი მიზანია AI მოდელების მოტყუება ან მანიპულირება შეცდომაში შემყვანი მონაცემებით. ის გულისხმობს შეყვანის მონაცემებში მცირე დარღვევების შეტანას, რათა გამოიწვიოს AI-ს არასწორი ან მოულოდნელი გამომავალი. მაგალითად, თავდამსხმელმა შეიძლება დაამატოს ხმაური ან ბუნდოვანი გამოსახულება, რომელიც შეუმჩნეველია ადამიანისთვის, მაგრამ იწვევს მის არასწორ კლასიფიკაციას ხელოვნური ინტელექტის მოდელის მიერ. მაგალითად, იხილეთ სურათი ქვემოთ, კატა, რომელიც ოდნავ შეცვლილია იმისათვის, რომ მოატყუოს InceptionV3-ის შემდგენელი და თქვას, რომ ის არის „გუაკამოლე“.


საკრედიტო:
ანიშ ათალიე labsix კვლევითი ჯგუფის წევრი, რომლის ფოკუსირება მოწინააღმდეგე თავდასხმებზეა

ცვლილებები არ არის აშკარად აშკარა. ადამიანისთვის ცვლილება საერთოდ არ იქნება შესაძლებელი, როგორც ეს ზემოთ მოყვანილი მაგალითიდან ჩანს. ადამიანურ მკითხველს არ ექნება პრობლემა მარჯვნივ მდებარე გამოსახულების კატეგორიზაციისთვის, როგორც ტაბის კატა. მაგრამ მცირე ცვლილებების შეტანა სურათებში, ვიდეოებში, ტექსტში ან აუდიოში შეიძლება მოატყუოს ხელოვნური ინტელექტის სისტემა და ამოიცნოს ის, რაც არ არის, ან უგულებელყოს ის, რაც არის, მაგალითად გაჩერების ნიშანი.

ამ ტიპის შეტევები სერიოზულ საფრთხეს უქმნის AI სისტემებს, რომლებიც ეყრდნობა ზუსტ და სანდო პროგნოზებს, როგორიცაა თვითმართვადი მანქანები, ბიომეტრიული გადამოწმება, სამედიცინო დიაგნოსტიკა, შინაარსის ფილტრაცია და ა.შ.

რამდენად საშიშია ხელოვნური ინტელექტის ჰალუცინაცია?

AI ჰალუცინაციები შეიძლება იყოს ძალიან საშიში, განსაკუთრებით იმისდა მიხედვით, თუ რა ტიპის AI სისტემა განიცდის მათ. ნებისმიერი თვითმართვადი მანქანა ან ხელოვნური ინტელექტის ასისტენტი, რომელსაც შეუძლია დახარჯოს მომხმარებლის ფული ან AI სისტემა უსიამოვნო შინაარსის ონლაინ გასაფილტრად, უნდა იყოს სრულიად სანდო.

მაგრამ ამ საათის უდავო ფაქტი ის არის, რომ AI სისტემები არ არის მთლიანად სანდო, მაგრამ, ფაქტობრივად, მიდრეკილია ჰალუცინაციებისკენ. დღევანდელი ყველაზე მოწინავე ხელოვნური ინტელექტის მოდელებიც კი არ არიან დაზღვეული მისგან.

მაგალითად, ერთ-ერთმა თავდასხმის შოუმ მოატყუა Google-ის ღრუბლოვანი გამოთვლითი სერვისი, რათა იარაღი ვერტმფრენის მსგავსად დაეშვა. წარმოგიდგენიათ, თუ ამ მომენტში ხელოვნური ინტელექტი იყო პასუხისმგებელი იმაში, რომ ადამიანი შეიარაღებული არ იყო?

კიდევ ერთმა მტრულმა თავდასხმამ აჩვენა, თუ როგორ ხდის მას უხილავი AI სისტემისთვის პატარა გამოსახულების დამატება გაჩერების ნიშანზე. არსებითად, ეს ნიშნავს, რომ თვითმართვადი მანქანა შეიძლება ჰალუცინირდეს, რომ გზაზე გაჩერების ნიშანი არ არის. რამდენი ავარია შეიძლება მომხდარიყო, თუ თვითმართვადი მანქანები დღეს რეალობად იქცეოდა? ამიტომ ახლა არ არიან.

მაშინაც კი, თუ გავითვალისწინებთ ამჟამად პოპულარულ ჩატ-შოუებს, ჰალუცინაციები შეიძლება გამოიწვიოს არასწორი შედეგი. მაგრამ ადამიანებმა, რომლებმაც არ იციან, რომ ხელოვნური ინტელექტის ჩატბოტები მიდრეკილნი არიან ჰალუცინაციებისკენ და არ ამოწმებენ ხელოვნური ინტელექტის ბოტების მიერ წარმოებულ გამომავალს, შეუძლიათ უნებლიედ გაავრცელონ დეზინფორმაცია. ჩვენ არ გვჭირდება ახსნა, რამდენად საშიშია ეს.

გარდა ამისა, მტრული თავდასხმები აქტუალური შეშფოთებაა. ჯერჯერობით ისინი მხოლოდ ლაბორატორიებშია ნაჩვენები. მაგრამ თუ მისიის კრიტიკული AI სისტემა მათ რეალურ სამყაროში დაუპირისპირდება, შედეგები შეიძლება იყოს დამანგრეველი.

რეალობა ისაა, რომ შედარებით ადვილია ბუნებრივი ენის მოდელების დაცვა. (ჩვენ არ ვამბობთ, რომ ეს მარტივია; ის მაინც ძალიან რთულია.) თუმცა, კომპიუტერული ხედვის სისტემების დაცვა სრულიად განსხვავებული სცენარია. ეს უფრო რთულია, განსაკუთრებით იმიტომ, რომ ბუნებრივ სამყაროში ამდენი ვარიაციაა და სურათები შეიცავს პიქსელების დიდ რაოდენობას.

ამ პრობლემის გადასაჭრელად შეიძლება დაგვჭირდეს ხელოვნური ინტელექტის პროგრამა, რომელსაც აქვს უფრო ადამიანური ხედვა სამყაროზე, რაც მას ნაკლებად მიდრეკილს გახდის ჰალუცინაციებისკენ. მიუხედავად იმისა, რომ კვლევა მიმდინარეობს, ჩვენ ჯერ კიდევ შორს ვართ ხელოვნური ინტელექტისგან, რომელსაც შეუძლია სცადოს მინიშნებების მიღება ბუნებისგან და თავი აარიდოს ჰალუცინაციების პრობლემას. ჯერჯერობით, ისინი სასტიკი რეალობაა.

ზოგადად, ხელოვნური ინტელექტის ჰალუცინაციები რთული ფენომენია, რომელიც შეიძლება წარმოიშვას ფაქტორების კომბინაციით. მკვლევარები აქტიურად ავითარებენ მეთოდებს AI ჰალუცინაციების აღმოსაჩენად და შესამცირებლად, რათა გააუმჯობესონ AI სისტემების სიზუსტე და საიმედოობა. მაგრამ თქვენ უნდა იცოდეთ ისინი AI სისტემასთან ურთიერთობისას.

ამავე თემაზე შეტყობინება
სტატიის გამოქვეყნება

დაამატეთ კომენტარი