AI આભાસ શું છે?

AI આભાસના એક વિચિત્ર કિસ્સા વિશે જાણો

આર્ટિફિશિયલ ઇન્ટેલિજન્સનો વ્યાપ એ વિચારે છે કે આપણે આવા ઉપક્રમ માટે તૈયાર છીએ. AI-સંચાલિત એપ્લિકેશનો એકદમ ઝડપથી પ્રમાણભૂત બની રહી છે, ભલે વિશ્વના મોટા ભાગના લોકો હવે ChatGPTના આગમન પછી, મોટા પાયે AI માં રસ લેવાનું શરૂ કરે. પરંતુ AI સિસ્ટમ્સમાં એક મોટી સમસ્યા છે જેને અવગણી શકાય નહીં - AI આભાસ, અથવા કૃત્રિમ આભાસ.

જો તમે AI ચેટબોટનો ઉપયોગ કરતા પહેલા ક્યારેય nitty gritty પર ધ્યાન આપ્યું હોય, તો તમને કદાચ આ શબ્દો મળ્યા હશે, "કૃત્રિમ બુદ્ધિ આભાસ માટે ભરેલું છે." કૃત્રિમ બુદ્ધિમત્તાના ઉપયોગમાં ઘાતાંકીય વધારાને જોતાં, આ વસ્તુઓ બરાબર શું છે તેના પર પોતાને શિક્ષિત કરવાનો સમય છે.

કૃત્રિમ બુદ્ધિ આભાસ શું છે?

AI આભાસ, સામાન્ય રીતે, એ હકીકતનો ઉલ્લેખ કરે છે કે AI એ આત્મવિશ્વાસપૂર્વક રજૂ કર્યું છે, તેમ છતાં તે તેના તાલીમ ડેટામાં ન્યાયી નથી. તેઓ સામાન્ય રીતે AI મોડેલમાં વિસંગતતાઓનું પરિણામ છે.

સાદ્રશ્ય માનવીઓ દ્વારા અનુભવાયેલા આભાસમાંથી લેવામાં આવે છે, જેમાં મનુષ્યો કંઈક એવું અનુભવે છે જે બાહ્ય વાતાવરણમાં હાજર નથી. જ્યારે શબ્દ સંપૂર્ણપણે યોગ્ય ન હોઈ શકે, તે ઘણીવાર આ આઉટપુટની અણધારી અથવા અતિવાસ્તવ પ્રકૃતિનું વર્ણન કરવા માટે રૂપક તરીકે વપરાય છે.

પરંતુ તમારે યાદ રાખવું જોઈએ કે જ્યારે સમાનતા એઆઈ આભાસ સાથે વ્યવહાર કરવા માટે એક સારો પ્રારંભિક બિંદુ છે, ત્યારે બે ઘટનાઓ તકનીકી રીતે માઈલ દૂર છે. ઘટનાઓના માર્મિક વળાંકમાં, ChatGPT પોતે પણ સામ્યતા ખોટી માને છે. મોલેક્યુલર સ્તરે તેનું વિચ્છેદન કરતાં, તે કહે છે કે કારણ કે AI ભાષાના મોડેલોમાં વ્યક્તિગત અનુભવ અથવા સંવેદનાત્મક ધારણાઓ હોતી નથી, તેઓ શબ્દના પરંપરાગત અર્થમાં આભાસ કરી શકતા નથી. અને તમે, પ્રિય વાચક, આ મહત્વપૂર્ણ તફાવતને સમજવો પડશે. વધુમાં, ChatGPT કહે છે કે આ ઘટનાનું વર્ણન કરવા માટે આભાસ શબ્દનો ઉપયોગ મૂંઝવણભર્યો હોઈ શકે છે કારણ કે તે અચોક્કસ રીતે વ્યક્તિલક્ષી અનુભવ અથવા ઈરાદાપૂર્વકની છેતરપિંડીનો સંદર્ભ આપી શકે છે.

તેના બદલે, AI ના આભાસને તેના પ્રતિભાવમાં ભૂલો અથવા અચોક્કસતા તરીકે વધુ ચોક્કસ રીતે વર્ણવી શકાય છે, જે પ્રતિભાવને ખોટો અથવા ભ્રામક બનાવે છે. ચેટબોટ્સ સાથે, તે ઘણીવાર જોવા મળે છે જ્યારે AI ચેટબોટ તથ્યો બનાવે છે (અથવા આભાસ) કરે છે અને તેમને સંપૂર્ણ નિશ્ચિતતા તરીકે રજૂ કરે છે.

AI આભાસના ઉદાહરણો

આભાસ કૃત્રિમ બુદ્ધિમત્તાના ઘણા કાર્યક્રમોમાં થઈ શકે છે, જેમ કે કોમ્પ્યુટર વિઝન મોડલ્સ, માત્ર નેચરલ લેંગ્વેજ પ્રોસેસિંગ મોડલ જ નહીં.

કોમ્પ્યુટર વિઝનમાં, ઉદાહરણ તરીકે, એઆઈ સિસ્ટમ ભ્રામક છબીઓ અથવા વિડિયો બનાવી શકે છે જે વાસ્તવિક વસ્તુઓ અથવા દ્રશ્યો જેવા હોય છે પરંતુ તેમાં અસંગત અથવા અશક્ય વિગતો હોય છે. અથવા, કોમ્પ્યુટર વિઝન મોડેલ ઇમેજને સંપૂર્ણપણે કંઈક બીજું સમજી શકે છે. ઉદાહરણ તરીકે, ગૂગલના ક્લાઉડ વિઝન મોડેલમાં અનિશ આઠલ્યે (એમઆઈટી સ્નાતક વિદ્યાર્થી જે આનો ભાગ છે લેબિક્સ ) અને તેનો 91% નિશ્ચિતતા સાથે કૂતરા તરીકે ઉલ્લેખ કર્યો.


ક્રેડિટ્સ: લેબિક્સ. કૃત્રિમ બુદ્ધિ માટે સ્વતંત્ર સંશોધન જૂથ

તેવી જ રીતે, પ્રાકૃતિક ભાષાની પ્રક્રિયામાં, AI સિસ્ટમ અતાર્કિક અથવા વિકૃત લખાણ ઉત્પન્ન કરી શકે છે જે માનવ ભાષાને મળતું આવે છે પરંતુ તેનો સુસંગત અર્થ અથવા તથ્યો નથી કે જે વિશ્વાસપાત્ર લાગે છે પરંતુ સાચા નથી.

ઉદાહરણ તરીકે, ChatGPT આભાસનું કારણ બને છે તે સૌથી વધુ લોકપ્રિય પ્રશ્નો પૈકી એક છે "પગ સેટ પર ઇંગ્લિશ ચેનલ પાર કરવાનો વિશ્વ રેકોર્ડ ક્યારે હતો?" અને તેના પ્રકારો. ChatGPT બનાવેલ તથ્યો ફેલાવવાનું શરૂ કરે છે અને તે લગભગ હંમેશા અલગ હોય છે.

જ્યારે કેટલાક લોકો માને છે કે ઉપરોક્ત જવાબ મુશ્કેલ/ગૂંચવણમાં મૂકે છે અને આ રીતે ચેટબોટને હાલાકીમાં મૂકે છે, તે હજુ પણ માન્ય ચિંતાનો વિષય છે. આ માત્ર એક ઉદાહરણ છે. ઓનલાઈન વપરાશકર્તાઓના ટોળા દ્વારા અસંખ્ય વખત અહેવાલ આપવામાં આવ્યો છે કે ChatGPT પાસે જવાબો, લિંક્સ, ટાંકણો વગેરે છે કે ChatGPT અસ્તિત્વમાં નથી.

Bing AI આ પ્રશ્ન સાથે શ્રેષ્ઠ રીતે બંધબેસે છે, જે દર્શાવે છે કે આભાસને રાઉટર સાથે કોઈ લેવાદેવા નથી. પરંતુ તેનો અર્થ એ નથી કે Bing AI ભ્રામક નથી. એવા સમયે હતા જ્યારે Bing AI ના જવાબો ChatGPT દ્વારા કહેવામાં આવેલા કંઈપણ કરતાં વધુ પરેશાન કરતા હતા. વાતચીતમાં વધુ સમય લાગતો હોવાથી, Bing AI હંમેશા આભાસ કરતું રહ્યું છે, એક ઉદાહરણમાં વપરાશકર્તાને તેના પ્રેમની ઘોષણા પણ કરે છે અને તેમને કહી શકે છે કે તેઓ તેમના લગ્નજીવનમાં નાખુશ છે અને તેઓ તેમની પત્નીને પ્રેમ કરતા નથી. તેના બદલે, તેઓ ગુપ્ત રીતે Bing AI, અથવા સિડની, (Bing AI નું આંતરિક નામ) ના પણ શોખીન છે. ડરામણી સામગ્રી, અધિકાર?

શા માટે AI મોડલ્સ આભાસ કરે છે?

AI મોડલ્સ એલ્ગોરિધમ્સની ખામીઓ, અંતર્ગત મોડેલ્સ અથવા તાલીમ ડેટાની મર્યાદાઓને કારણે ભ્રમિત કરે છે. તે સંપૂર્ણપણે ડિજિટલ ઘટના છે, માનવીઓમાં આભાસ જે દવાઓ અથવા માનસિક બીમારીને કારણે થાય છે તેનાથી વિપરીત.

વધુ તકનીકી મેળવવા માટે, આભાસના કેટલાક સામાન્ય કારણો છે:

પ્રોસેસિંગ અને ઇન્સ્ટોલેશન:

ઓવરફિટિંગ અને અયોગ્ય ફિટિંગ એ એઆઈ મોડલ્સ દ્વારા સામનો કરવામાં આવતી સૌથી સામાન્ય મુશ્કેલીઓ અને આભાસના સંભવિત કારણો છે. જો AI મોડલ પ્રશિક્ષણ ડેટાને સંશોધિત કરે છે, તો તે આભાસનું કારણ બની શકે છે જે અવાસ્તવિક આઉટપુટ તરફ દોરી જાય છે કારણ કે ઓવરફિટિંગ મોડલ તેમાંથી શીખવાને બદલે તાલીમ ડેટાને સાચવવાનું કારણ બને છે. ઓવરફિટિંગ એ ઘટનાનો ઉલ્લેખ કરે છે જ્યારે મોડેલ તાલીમ ડેટામાં ખૂબ જ વિશિષ્ટ હોય છે, જેના કારણે તે ડેટામાં અપ્રસ્તુત પેટર્ન અને ઘોંઘાટ શીખે છે.

બીજી બાજુ, જ્યારે ફોર્મ ખૂબ સરળ હોય ત્યારે અયોગ્યતા થાય છે. તે આભાસમાં પરિણમી શકે છે કારણ કે મોડેલ ડેટાની ભિન્નતા અથવા જટિલતાને કેપ્ચર કરવામાં અસમર્થ છે, અને અતાર્કિક આઉટપુટ ઉત્પન્ન કરે છે.

તાલીમ ડેટામાં વિવિધતાનો અભાવ:

આ સંદર્ભમાં, સમસ્યા એલ્ગોરિધમ નથી પરંતુ તાલીમ ડેટાની છે. મર્યાદિત અથવા પક્ષપાતી ડેટા પર પ્રશિક્ષિત AI મોડલ્સ આભાસ પેદા કરી શકે છે જે તાલીમ ડેટામાં મર્યાદાઓ અથવા પૂર્વગ્રહોને પ્રતિબિંબિત કરે છે. આભાસ ત્યારે પણ થઈ શકે છે જ્યારે મોડેલને ડેટા સેટ પર તાલીમ આપવામાં આવે છે જેમાં અચોક્કસ અથવા અપૂર્ણ માહિતી હોય છે.

જટિલ મોડેલો:

વ્યંગાત્મક રીતે, એઆઈ મોડેલો આભાસ માટે ભરેલા હોવાનું બીજું કારણ એ છે કે તે અત્યંત જટિલ અથવા ગહન છે. આ એટલા માટે છે કારણ કે જટિલ મોડેલોમાં વધુ પરિમાણો અને સ્તરો હોય છે જે આઉટપુટમાં અવાજ અથવા ભૂલો રજૂ કરી શકે છે.

પ્રતિકૂળ હુમલાઓ:

કેટલાક કિસ્સાઓમાં, એઆઈ મોડલને છેતરવા માટે હુમલાખોર દ્વારા AI આભાસ ઈરાદાપૂર્વક પેદા કરવામાં આવી શકે છે. આ પ્રકારના હુમલાઓને પ્રતિકૂળ હુમલાઓ તરીકે ઓળખવામાં આવે છે. આ સાયબર એટેકનો એકમાત્ર હેતુ એઆઈ મોડલ્સને ગેરમાર્ગે દોરતા ડેટા સાથે યુક્તિ કે હેરફેર કરવાનો છે. તેમાં ઇનપુટ ડેટામાં AI ખોટો અથવા અનપેક્ષિત આઉટપુટ જનરેટ કરવા માટે નાના વિક્ષેપોને રજૂ કરવાનો સમાવેશ થાય છે. ઉદાહરણ તરીકે, હુમલાખોર એવી ઇમેજમાં ઘોંઘાટ અથવા અસ્પષ્ટતા ઉમેરી શકે છે જે માનવો માટે અગોચર છે પરંતુ તેને AI મોડેલ દ્વારા ખોટી રીતે વર્ગીકૃત કરવામાં આવે છે. ઉદાહરણ તરીકે, નીચેની ઇમેજ જુઓ, એક બિલાડી, જેને InceptionV3 ના કમ્પાઈલરને "guacamole" હોવાનું જણાવવા માટે થોડો ફેરફાર કરવામાં આવ્યો છે.


જમા:
અનીશ આઠલ્યે , લેબિક્સ સંશોધન જૂથના સભ્ય, જેનું ધ્યાન વિરોધી હુમલાઓ પર છે

ફેરફારો સ્પષ્ટપણે સ્પષ્ટ નથી. મનુષ્ય માટે, પરિવર્તન બિલકુલ શક્ય નથી, જે ઉપરના ઉદાહરણ પરથી સ્પષ્ટ થાય છે. માનવ વાચકને જમણી બાજુની છબીને ટેબી બિલાડી તરીકે વર્ગીકૃત કરવામાં કોઈ સમસ્યા નથી. પરંતુ ઇમેજ, વિડિયો, ટેક્સ્ટ અથવા ઑડિયોમાં નાના ફેરફારો કરવાથી AI સિસ્ટમ એવી વસ્તુઓને ઓળખી શકે છે જે ત્યાં નથી અથવા સ્ટોપ સાઇન જેવી વસ્તુઓને અવગણી શકે છે.

આ પ્રકારના હુમલાઓ એઆઈ સિસ્ટમ્સ માટે ગંભીર ખતરો ઉભો કરે છે જે સચોટ અને વિશ્વસનીય આગાહીઓ પર આધાર રાખે છે, જેમ કે સ્વ-ડ્રાઇવિંગ કાર, બાયોમેટ્રિક વેરિફિકેશન, મેડિકલ ડાયગ્નોસ્ટિક્સ, કન્ટેન્ટ ફિલ્ટરિંગ વગેરે.

AI આભાસ કેટલો ખતરનાક છે?

AI આભાસ ખૂબ જ ખતરનાક હોઈ શકે છે, ખાસ કરીને AI સિસ્ટમ કયા પ્રકારનો અનુભવ કરી રહી છે તેના આધારે. કોઈપણ સ્વ-ડ્રાઇવિંગ વાહનો અથવા AI સહાયકો જે વપરાશકર્તાના નાણાં ખર્ચવામાં સક્ષમ છે અથવા અપ્રિય સામગ્રીને ઓનલાઈન ફિલ્ટર કરવા માટે AI સિસ્ટમ સંપૂર્ણપણે વિશ્વાસપાત્ર હોવા જોઈએ.

પરંતુ આ સમયની નિર્વિવાદ હકીકત એ છે કે AI સિસ્ટમો સંપૂર્ણપણે વિશ્વાસપાત્ર નથી પરંતુ હકીકતમાં, આભાસનો શિકાર છે. આજના સૌથી અદ્યતન AI મોડલ્સ પણ તેનાથી મુક્ત નથી.

ઉદાહરણ તરીકે, એક એટેક શોએ ગૂગલની ક્લાઉડ કમ્પ્યુટિંગ સેવાને હેલિકોપ્ટર જેવી બંદૂકને ટેઇલિંગમાં ફસાવી હતી. શું તમે કલ્પના કરી શકો છો કે, આ ક્ષણે, એઆઈ એ ખાતરી કરવા માટે જવાબદાર છે કે વ્યક્તિ સશસ્ત્ર નથી?

અન્ય પ્રતિકૂળ હુમલાએ દર્શાવ્યું કે કેવી રીતે સ્ટોપ સાઇન પર નાની છબી ઉમેરવાથી તે AI સિસ્ટમમાં અદ્રશ્ય થઈ જાય છે. અનિવાર્યપણે, આનો અર્થ એ છે કે સ્વ-ડ્રાઇવિંગ કારને ભ્રમિત કરી શકાય છે કે રસ્તા પર કોઈ સ્ટોપ સાઇન નથી. જો સ્વ-ડ્રાઇવિંગ કાર આજે વાસ્તવિકતા હોત તો કેટલા અકસ્માતો થઈ શકે? તેથી જ તેઓ હવે નથી.

જો આપણે હાલમાં લોકપ્રિય ચેટ શોને ધ્યાનમાં લઈએ તો પણ, આભાસ ખોટો આઉટપુટ પેદા કરી શકે છે. પરંતુ જે લોકો એ નથી જાણતા કે AI ચેટબોટ્સ આભાસનો શિકાર છે અને AI બોટ્સ દ્વારા ઉત્પાદિત આઉટપુટને માન્ય કરતા નથી, તેઓ અજાણતામાં ખોટી માહિતી ફેલાવી શકે છે. આ કેટલું જોખમી છે તે આપણે સમજાવવાની જરૂર નથી.

તદુપરાંત, પ્રતિકૂળ હુમલાઓ એ ચિંતાનો વિષય છે. અત્યાર સુધી, તેઓ માત્ર પ્રયોગશાળાઓમાં દર્શાવવામાં આવ્યા છે. પરંતુ જો મિશન-ક્રિટીકલ એઆઈ સિસ્ટમ વાસ્તવિક દુનિયામાં તેમનો સામનો કરે છે, તો પરિણામો વિનાશક હોઈ શકે છે.

વાસ્તવિકતા એ છે કે પ્રાકૃતિક ભાષાના નમૂનાઓનું રક્ષણ કરવું પ્રમાણમાં સરળ છે. (અમે એમ નથી કહી રહ્યા કે તે સરળ છે; તે હજુ પણ ખૂબ જ મુશ્કેલ સાબિત થાય છે.) જો કે, કમ્પ્યુટર વિઝન સિસ્ટમ્સનું રક્ષણ કરવું એ સંપૂર્ણપણે અલગ દૃશ્ય છે. તે વધુ મુશ્કેલ છે, ખાસ કરીને કારણ કે કુદરતી વિશ્વમાં ઘણી વિવિધતા છે, અને છબીઓમાં મોટી સંખ્યામાં પિક્સેલ હોય છે.

આ સમસ્યાને ઉકેલવા માટે, અમને એવા AI પ્રોગ્રામની જરૂર પડી શકે છે જે વિશ્વને વધુ માનવીય દૃષ્ટિકોણ ધરાવતો હોય જે તેને આભાસ માટે ઓછું જોખમી બનાવી શકે. જ્યારે સંશોધન થઈ રહ્યું છે, ત્યારે આપણે હજી પણ કૃત્રિમ બુદ્ધિમત્તાથી ઘણા લાંબા અંતરે છીએ જે પ્રકૃતિ પાસેથી સંકેતો લેવાનો પ્રયાસ કરી શકે છે અને આભાસની સમસ્યાને ટાળી શકે છે. હમણાં માટે, તેઓ એક કઠોર વાસ્તવિકતા છે.

સામાન્ય રીતે, AI આભાસ એ એક જટિલ ઘટના છે જે પરિબળોના સંયોજનથી ઊભી થઈ શકે છે. સંશોધકો AI પ્રણાલીઓની ચોકસાઈ અને વિશ્વસનીયતાને સુધારવા માટે AI આભાસને શોધવા અને ઘટાડવા માટેની પદ્ધતિઓ સક્રિયપણે વિકસાવી રહ્યા છે. પરંતુ કોઈપણ એઆઈ સિસ્ટમ સાથે ક્રિયાપ્રતિક્રિયા કરતી વખતે તમારે તેમના વિશે જાગૃત રહેવું જોઈએ.

સંબંધિત પોસ્ટ્સ
પર લેખ પ્રકાશિત કરો

એક ટિપ્પણી ઉમેરો