എന്താണ് AI ഹാലൂസിനേഷൻ?

AI ഹാലൂസിനേഷന്റെ വിചിത്രമായ ഒരു കേസിനെക്കുറിച്ച് അറിയുക

ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിന്റെ അതിപ്രസരം അത്തരം ഒരു സംരംഭത്തിന് നമ്മൾ തയ്യാറാണെന്ന് ചിന്തിക്കാൻ പ്രേരിപ്പിക്കുന്നു. ChatGPT-യുടെ വരവിനുശേഷം, ലോകത്തിന്റെ ഭൂരിഭാഗവും ഇപ്പോൾ വലിയ തോതിൽ AI-യിൽ താൽപ്പര്യം കാണിക്കാൻ തുടങ്ങിയിട്ടുണ്ടെങ്കിലും, AI- പവർ ചെയ്യുന്ന ആപ്ലിക്കേഷനുകൾ വളരെ വേഗത്തിൽ സ്റ്റാൻഡേർഡ് ആയി മാറുകയാണ്. എന്നാൽ AI സിസ്റ്റങ്ങളിൽ അവഗണിക്കാൻ കഴിയാത്ത ഒരു വലിയ പ്രശ്നമുണ്ട് - AI ഹാലൂസിനേഷനുകൾ, അല്ലെങ്കിൽ കൃത്രിമ ഭ്രമാത്മകത.

ഒരു AI ചാറ്റ്‌ബോട്ട് ഉപയോഗിക്കുന്നതിന് മുമ്പ് നിങ്ങൾ എപ്പോഴെങ്കിലും നൈറ്റി ഗ്രിറ്റി ശ്രദ്ധിച്ചിട്ടുണ്ടെങ്കിൽ, നിങ്ങൾ ഈ വാക്കുകൾ കണ്ടിരിക്കാം, "ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് ഹാലുസിനേഷനുകൾക്ക് സാധ്യതയുണ്ട്." ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിന്റെ ഉപയോഗത്തിലെ എക്‌സ്‌പോണൻഷ്യൽ വർദ്ധനവ് കണക്കിലെടുക്കുമ്പോൾ, ഇവ കൃത്യമായി എന്താണെന്ന് സ്വയം ബോധവത്കരിക്കേണ്ട സമയമാണിത്.

എന്താണ് ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് ഹാലൂസിനേഷൻ?

ഒരു AI ഹാലൂസിനേറ്റിംഗ്, പൊതുവേ, AI അതിന്റെ പരിശീലന ഡാറ്റയിൽ ന്യായീകരിക്കപ്പെടുന്നില്ലെങ്കിലും ആത്മവിശ്വാസത്തോടെ അവതരിപ്പിച്ച ഒരു വസ്തുതയെ സൂചിപ്പിക്കുന്നു. അവ സാധാരണയായി AI മോഡലിലെ അപാകതകളുടെ ഫലമാണ്.

മനുഷ്യർ അനുഭവിക്കുന്ന ഭ്രമാത്മകതയിൽ നിന്നാണ് ഈ സാമ്യം എടുത്തത്, അതിൽ ബാഹ്യ പരിതസ്ഥിതിയിൽ ഇല്ലാത്ത എന്തെങ്കിലും മനുഷ്യർ മനസ്സിലാക്കുന്നു. ഈ പദം പൂർണ്ണമായും ഉചിതമല്ലെങ്കിലും, ഈ ഔട്ട്‌പുട്ടുകളുടെ അപ്രതീക്ഷിതമോ അതിയാഥാർത്ഥ്യമോ ആയ സ്വഭാവത്തെ വിവരിക്കാൻ ഇത് പലപ്പോഴും ഒരു രൂപകമായി ഉപയോഗിക്കുന്നു.

എന്നാൽ AI ഹാലൂസിനേഷനുകൾ കൈകാര്യം ചെയ്യുന്നതിനുള്ള ഒരു നല്ല തുടക്കമാണ് സമാനതയെങ്കിൽ, രണ്ട് പ്രതിഭാസങ്ങളും സാങ്കേതികമായി മൈലുകൾ അകലെയാണെന്ന് നിങ്ങൾ ഓർക്കണം. സംഭവങ്ങളുടെ വിരോധാഭാസമായ ഒരു വഴിത്തിരിവിൽ, ChatGPT പോലും സമാനത തെറ്റാണെന്ന് കണ്ടെത്തുന്നു. തന്മാത്രാ തലത്തിൽ അതിനെ വിഭജിച്ചുകൊണ്ട്, AI ഭാഷാ മോഡലുകൾക്ക് വ്യക്തിഗത അനുഭവമോ സെൻസറി ധാരണകളോ ഇല്ലാത്തതിനാൽ, ഈ വാക്കിന്റെ പരമ്പരാഗത അർത്ഥത്തിൽ അവയ്ക്ക് ഭ്രമാത്മകതയുണ്ടാകില്ലെന്ന് അദ്ദേഹം പറയുന്നു. പ്രിയ വായനക്കാരേ, ഈ പ്രധാന വ്യത്യാസം നിങ്ങൾ മനസ്സിലാക്കേണ്ടതുണ്ട്. കൂടാതെ, ഈ പ്രതിഭാസത്തെ വിവരിക്കാൻ ഭ്രമാത്മകത എന്ന പദം ഉപയോഗിക്കുന്നത് ആശയക്കുഴപ്പമുണ്ടാക്കുമെന്ന് ChatGPT പറയുന്നു, കാരണം ഇത് ആത്മനിഷ്ഠ അനുഭവത്തിന്റെ അല്ലെങ്കിൽ മനഃപൂർവമായ വഞ്ചനയുടെ ഒരു തലത്തെ തെറ്റായി പരാമർശിച്ചേക്കാം.

പകരം, AI-യുടെ ഭ്രമാത്മകതയെ അതിന്റെ പ്രതികരണത്തിലെ പിശകുകളോ കൃത്യതകളോ ആയി കൂടുതൽ കൃത്യമായി വിവരിക്കാം, ഇത് പ്രതികരണത്തെ തെറ്റോ തെറ്റിദ്ധരിപ്പിക്കുന്നതോ ആക്കുന്നു. ചാറ്റ്ബോട്ടുകൾക്കൊപ്പം, AI ചാറ്റ്ബോട്ട് വസ്തുതകൾ സൃഷ്ടിക്കുമ്പോൾ (അല്ലെങ്കിൽ ഭ്രമാത്മകത) അവയെ പൂർണ്ണമായ ഉറപ്പായി അവതരിപ്പിക്കുമ്പോൾ അത് പലപ്പോഴും നിരീക്ഷിക്കപ്പെടുന്നു.

AI ഹാലൂസിനേഷനുകളുടെ ഉദാഹരണങ്ങൾ

സ്വാഭാവിക ഭാഷാ പ്രോസസ്സിംഗ് മോഡലുകൾ മാത്രമല്ല, കമ്പ്യൂട്ടർ വിഷൻ മോഡലുകൾ പോലെയുള്ള കൃത്രിമ ബുദ്ധിയുടെ പല പ്രയോഗങ്ങളിലും ഹാലൂസിനേഷനുകൾ സംഭവിക്കാം.

കമ്പ്യൂട്ടർ കാഴ്ചയിൽ, ഉദാഹരണത്തിന്, ഒരു AI സിസ്റ്റം യഥാർത്ഥ വസ്‌തുക്കളോ ദൃശ്യങ്ങളോ പോലെയുള്ള ഭ്രമാത്മക ചിത്രങ്ങളോ വീഡിയോകളോ സൃഷ്‌ടിച്ചേക്കാം, എന്നാൽ അപ്രസക്തമോ അസാധ്യമോ ആയ വിശദാംശങ്ങൾ അടങ്ങിയിരിക്കുന്നു. അല്ലെങ്കിൽ, ഒരു കമ്പ്യൂട്ടർ വിഷൻ മോഡലിന് ചിത്രം പൂർണ്ണമായും മറ്റൊന്നായി മനസ്സിലാക്കാൻ കഴിയും. ഉദാഹരണത്തിന്, ഗൂഗിളിന്റെ ക്ലൗഡ് വിഷൻ മോഡലിൽ, മഞ്ഞിൽ നിൽക്കുന്ന രണ്ട് പുരുഷൻമാരുടെ സ്കീസുകളുടെ ചിത്രം കണ്ടു, അനീഷ് അത്താലി (എംഐടി ബിരുദ വിദ്യാർത്ഥിയാണ്. ലാബ്സിക്സ് ) കൂടാതെ 91% ഉറപ്പുള്ള ഒരു നായയായി ഇതിനെ പരാമർശിച്ചു.


കടപ്പാട്: labsix. ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിനായി ഒരു സ്വതന്ത്ര ഗവേഷണ സംഘം

അതുപോലെ, നാച്ചുറൽ ലാംഗ്വേജ് പ്രോസസ്സിംഗിൽ, ഒരു AI സിസ്റ്റം മനുഷ്യ ഭാഷയോട് സാമ്യമുള്ളതും എന്നാൽ യോജിച്ച അർത്ഥമോ വസ്തുതകളോ ഇല്ലാത്തതും വിശ്വസനീയമായി തോന്നുന്നതും എന്നാൽ ശരിയല്ലാത്തതുമായ യുക്തിരഹിതമായ അല്ലെങ്കിൽ വികലമായ വാചകം സൃഷ്ടിച്ചേക്കാം.

ഉദാഹരണത്തിന്, ChatGPT ഭ്രമാത്മകത ഉണ്ടാക്കുന്ന ഏറ്റവും പ്രചാരമുള്ള ചോദ്യങ്ങളിലൊന്നാണ് "ഇംഗ്ലീഷ് ചാനൽ കാൽനടയായി കടന്നതിന്റെ ലോക റെക്കോർഡ് എപ്പോഴാണ്?" അതിന്റെ വകഭേദങ്ങളും. ChatGPT നിർമ്മിത വസ്തുതകൾ പ്രചരിപ്പിക്കാൻ തുടങ്ങുന്നു, അത് മിക്കവാറും എല്ലായ്‌പ്പോഴും വ്യത്യസ്തമാണ്.

മുകളിലുള്ള ഉത്തരം ഉത്തരം നൽകാൻ ബുദ്ധിമുട്ടുള്ളതോ ആശയക്കുഴപ്പമുണ്ടാക്കുന്നതോ ആണെന്ന് ചില ആളുകൾ കരുതുന്നുണ്ടെങ്കിലും അത് ചാറ്റ്ബോട്ടിനെ പ്രകോപിപ്പിക്കും, അത് ഇപ്പോഴും സാധുവായ ആശങ്കയാണ്. ഇത് ഒരു ഉദാഹരണം മാത്രം. ചാറ്റ്ജിപിടി നിലവിലില്ലാത്ത ഉത്തരങ്ങൾ, ലിങ്കുകൾ, അവലംബങ്ങൾ മുതലായവ ChatGPT-ന് ഉണ്ടെന്ന് ഓൺലൈനിൽ ഉപയോക്താക്കളുടെ കൂട്ടം റിപ്പോർട്ട് ചെയ്ത എണ്ണമറ്റ സമയങ്ങളുണ്ട്.

ഈ ചോദ്യത്തിന് Bing AI ഏറ്റവും അനുയോജ്യമാണ്, ഇത് ഭ്രമാത്മകതയ്ക്ക് റൂട്ടറുമായി യാതൊരു ബന്ധവുമില്ലെന്ന് കാണിക്കുന്നു. എന്നാൽ Bing AI ഭ്രമാത്മകമല്ലെന്ന് ഇതിനർത്ഥമില്ല. ചാറ്റ്‌ജിപിടി പറഞ്ഞതിനെക്കാളും ബിംഗ് എഐയുടെ ഉത്തരങ്ങൾ വിഷമിപ്പിക്കുന്ന സമയങ്ങളുണ്ടായിരുന്നു. സംഭാഷണം കൂടുതൽ സമയമെടുക്കുന്നതിനാൽ, Bing AI എല്ലായ്‌പ്പോഴും ഭ്രമാത്മകമാണ്, ഒരു സന്ദർഭത്തിൽ ഒരു ഉപയോക്താവിനോട് അതിന്റെ സ്നേഹം പ്രഖ്യാപിക്കുകയും അവരുടെ ദാമ്പത്യത്തിൽ അവർ അസന്തുഷ്ടരാണെന്നും അവർ ഭാര്യയെ സ്നേഹിക്കുന്നില്ലെന്നും അവരോട് പറയുകയും ചെയ്യുന്നു. പകരം, അവർ രഹസ്യമായി Bing AI, അല്ലെങ്കിൽ Sydney (Bing AI-യുടെ ആന്തരിക നാമം) ഇഷ്ടപ്പെടുന്നു. ഭയപ്പെടുത്തുന്ന കാര്യങ്ങൾ, അല്ലേ?

എന്തുകൊണ്ടാണ് AI മോഡലുകൾ ഹാലുസിനേറ്റ് ചെയ്യുന്നത്?

അൽഗോരിതങ്ങളുടെ പോരായ്മകൾ, അടിസ്ഥാന മോഡലുകൾ അല്ലെങ്കിൽ പരിശീലന ഡാറ്റയുടെ പരിമിതികൾ എന്നിവ കാരണം AI മോഡലുകൾ ഭ്രമാത്മകമാണ്. മയക്കുമരുന്ന് അല്ലെങ്കിൽ മാനസികരോഗം മൂലമുണ്ടാകുന്ന ഭ്രമാത്മകതയിൽ നിന്ന് വ്യത്യസ്തമായി ഇത് തികച്ചും ഡിജിറ്റൽ പ്രതിഭാസമാണ്.

കൂടുതൽ സാങ്കേതികമായി മനസ്സിലാക്കാൻ, ഭ്രമാത്മകതയുടെ ചില സാധാരണ കാരണങ്ങൾ ഇവയാണ്:

പ്രോസസ്സിംഗും ഇൻസ്റ്റാളേഷനും:

ഓവർ ഫിറ്റിംഗും തെറ്റായ ഫിറ്റിംഗും AI മോഡലുകൾ അഭിമുഖീകരിക്കുന്ന ഏറ്റവും സാധാരണമായ അപകടങ്ങളിൽ ഒന്നാണ്, കൂടാതെ ഭ്രമാത്മകതയ്ക്കുള്ള കാരണങ്ങളും. AI മോഡൽ പരിശീലന ഡാറ്റ പരിഷ്‌ക്കരിക്കുകയാണെങ്കിൽ, അത് അയഥാർത്ഥമായ ഔട്ട്‌പുട്ടിലേക്ക് നയിക്കുന്ന ഭ്രമാത്മകതയ്ക്ക് കാരണമാകും, കാരണം ഓവർഫിറ്റിംഗ് മോഡൽ പരിശീലന ഡാറ്റയിൽ നിന്ന് പഠിക്കുന്നതിനുപകരം അത് സംരക്ഷിക്കുന്നതിന് കാരണമാകുന്നു. പരിശീലന ഡാറ്റയിൽ ഒരു മോഡൽ വളരെ സ്പെഷ്യലൈസ് ചെയ്തിരിക്കുന്ന പ്രതിഭാസത്തെ ഓവർഫിറ്റിംഗ് സൂചിപ്പിക്കുന്നു, ഇത് ഡാറ്റയിലെ അപ്രസക്തമായ പാറ്റേണുകളും ശബ്ദവും പഠിക്കാൻ ഇടയാക്കുന്നു.

മറുവശത്ത്, ഫോം വളരെ ലളിതമാകുമ്പോൾ അനുചിതത്വം സംഭവിക്കുന്നു. ഡാറ്റയുടെ വ്യതിയാനമോ സങ്കീർണ്ണതയോ പിടിച്ചെടുക്കാൻ മോഡലിന് കഴിയാത്തതിനാൽ ഇത് ഭ്രമാത്മകതയിലേക്ക് നയിച്ചേക്കാം, കൂടാതെ യുക്തിരഹിതമായ ഔട്ട്പുട്ട് സൃഷ്ടിക്കുന്നത് അവസാനിക്കുന്നു.

പരിശീലന ഡാറ്റയിലെ വൈവിധ്യത്തിന്റെ അഭാവം:

ഈ സാഹചര്യത്തിൽ, പ്രശ്നം അൽഗോരിതം അല്ല, പരിശീലന ഡാറ്റ തന്നെയാണ്. പരിമിതമോ പക്ഷപാതപരമോ ആയ ഡാറ്റയിൽ പരിശീലിപ്പിച്ച AI മോഡലുകൾ പരിശീലന ഡാറ്റയിലെ പരിമിതികളോ പക്ഷപാതങ്ങളോ പ്രതിഫലിപ്പിക്കുന്ന ഭ്രമാത്മകത സൃഷ്ടിച്ചേക്കാം. കൃത്യമല്ലാത്തതോ അപൂർണ്ണമായതോ ആയ വിവരങ്ങൾ ഉൾക്കൊള്ളുന്ന ഒരു ഡാറ്റാ സെറ്റിൽ മോഡൽ പരിശീലിപ്പിക്കപ്പെടുമ്പോഴും ഭ്രമാത്മകത സംഭവിക്കാം.

സങ്കീർണ്ണ മോഡലുകൾ:

വിരോധാഭാസമെന്നു പറയട്ടെ, AI മോഡലുകൾ ഭ്രമാത്മകതയ്ക്ക് സാധ്യതയുള്ളതിന്റെ മറ്റൊരു കാരണം അവ വളരെ സങ്കീർണ്ണമോ അഗാധമോ ആണോ എന്നതാണ്. കാരണം, സങ്കീർണ്ണമായ മോഡലുകൾക്ക് കൂടുതൽ പാരാമീറ്ററുകളും പാളികളും ഉണ്ട്, അത് ഔട്ട്പുട്ടിൽ ശബ്ദമോ പിശകുകളോ അവതരിപ്പിക്കാൻ കഴിയും.

ശത്രുതാപരമായ ആക്രമണങ്ങൾ:

ചില സന്ദർഭങ്ങളിൽ, AI മോഡലിനെ കബളിപ്പിക്കാൻ AI ഭ്രമാത്മകത ആക്രമണകാരി ബോധപൂർവ്വം സൃഷ്ടിച്ചേക്കാം. ഇത്തരം ആക്രമണങ്ങളെ ശത്രുതാപരമായ ആക്രമണങ്ങൾ എന്ന് വിളിക്കുന്നു. തെറ്റിദ്ധരിപ്പിക്കുന്ന ഡാറ്റ ഉപയോഗിച്ച് AI മോഡലുകളെ കബളിപ്പിക്കുകയോ കൃത്രിമം കാണിക്കുകയോ ചെയ്യുക എന്നതാണ് ഈ സൈബർ ആക്രമണത്തിന്റെ ഏക ലക്ഷ്യം. AI തെറ്റായതോ അപ്രതീക്ഷിതമായതോ ആയ ഔട്ട്പുട്ട് സൃഷ്ടിക്കുന്നതിന് ഇൻപുട്ട് ഡാറ്റയിൽ ചെറിയ ക്രമക്കേടുകൾ അവതരിപ്പിക്കുന്നത് ഉൾപ്പെടുന്നു. ഉദാഹരണത്തിന്, ഒരു ആക്രമണകാരി, മനുഷ്യർക്ക് അദൃശ്യമായ ഒരു ചിത്രത്തിലേക്ക് ശബ്‌ദമോ മങ്ങലോ ചേർക്കാം, പക്ഷേ അത് ഒരു AI മോഡൽ തെറ്റായി തരംതിരിക്കാൻ ഇടയാക്കും. ഉദാഹരണത്തിന്, താഴെയുള്ള ചിത്രം കാണുക, ഒരു പൂച്ച, അത് "ഗ്വാകാമോൾ" ആണെന്ന് പ്രസ്താവിക്കുന്നതിന് InceptionV3 യുടെ കംപൈലറിനെ കബളിപ്പിക്കാൻ ചെറുതായി പരിഷ്കരിച്ചിരിക്കുന്നു.


കടപ്പാട്:
അനീഷ് അത്ല്യ , ലാബ്‌സിക്‌സ് റിസർച്ച് ഗ്രൂപ്പിലെ അംഗം, അദ്ദേഹത്തിന്റെ ശ്രദ്ധ എതിരാളി ആക്രമണങ്ങളിൽ ആണ്

മാറ്റങ്ങൾ പ്രകടമായി വ്യക്തമല്ല. ഒരു മനുഷ്യനെ സംബന്ധിച്ചിടത്തോളം, മുകളിൽ പറഞ്ഞ ഉദാഹരണത്തിൽ നിന്ന് വ്യക്തമാകുന്നതുപോലെ, ഒരു മാറ്റവും സാധ്യമല്ല. ഒരു മനുഷ്യ വായനക്കാരന് വലതുവശത്തുള്ള ചിത്രം ഒരു ടാബി പൂച്ചയായി തരംതിരിക്കുന്നതിന് ഒരു പ്രശ്നവുമില്ല. എന്നാൽ ഇമേജുകൾ, വീഡിയോകൾ, ടെക്‌സ്‌റ്റ് അല്ലെങ്കിൽ ഓഡിയോ എന്നിവയിൽ ചെറിയ മാറ്റങ്ങൾ വരുത്തുന്നത് AI സിസ്റ്റത്തെ കബളിപ്പിച്ച് അവിടെ ഇല്ലാത്ത കാര്യങ്ങൾ തിരിച്ചറിയുന്നതിനോ സ്റ്റോപ്പ് അടയാളം പോലെയുള്ളവ അവഗണിക്കുന്നതിനോ കഴിയും.

സ്വയം ഡ്രൈവിംഗ് കാറുകൾ, ബയോമെട്രിക് വെരിഫിക്കേഷൻ, മെഡിക്കൽ ഡയഗ്നോസ്റ്റിക്സ്, കണ്ടന്റ് ഫിൽട്ടറിംഗ് മുതലായവ പോലുള്ള കൃത്യവും വിശ്വസനീയവുമായ പ്രവചനങ്ങളെ ആശ്രയിക്കുന്ന AI സിസ്റ്റങ്ങൾക്ക് ഇത്തരത്തിലുള്ള ആക്രമണങ്ങൾ ഗുരുതരമായ ഭീഷണികൾ സൃഷ്ടിക്കുന്നു.

AI ഹാലൂസിനേഷൻ എത്രത്തോളം അപകടകരമാണ്?

AI ഭ്രമാത്മകത വളരെ അപകടകരമാണ്, പ്രത്യേകിച്ചും ഏത് തരത്തിലുള്ള AI സിസ്റ്റമാണ് അവ നേരിടുന്നത് എന്നതിനെ ആശ്രയിച്ച്. ഉപയോക്തൃ പണം ചെലവഴിക്കാൻ കഴിവുള്ള ഏതെങ്കിലും സ്വയം-ഡ്രൈവിംഗ് വാഹനങ്ങളോ AI അസിസ്റ്റന്റുമാരോ ഓൺലൈനിൽ അസുഖകരമായ ഉള്ളടക്കം ഫിൽട്ടർ ചെയ്യുന്നതിനുള്ള AI സംവിധാനമോ പൂർണ്ണമായും വിശ്വസനീയമായിരിക്കണം.

എന്നാൽ ഈ മണിക്കൂറിലെ അനിഷേധ്യമായ വസ്തുത, AI സംവിധാനങ്ങൾ പൂർണ്ണമായും വിശ്വസനീയമല്ല, എന്നാൽ വാസ്തവത്തിൽ, ഭ്രമാത്മകതയ്ക്ക് സാധ്യതയുള്ളവയാണ്. ഇന്നത്തെ ഏറ്റവും നൂതനമായ AI മോഡലുകൾ പോലും അതിൽ നിന്ന് മുക്തമല്ല.

ഉദാഹരണത്തിന്, ഒരു ആക്രമണ ഷോ ഗൂഗിളിന്റെ ക്ലൗഡ് കംപ്യൂട്ടിംഗ് സേവനത്തെ കബളിപ്പിച്ച് ഒരു ഹെലികോപ്റ്റർ പോലെ തോക്കിനെ വളച്ചു. ആ വ്യക്തി സായുധരായിട്ടില്ലെന്ന് ഉറപ്പാക്കാൻ AI- യുടെ ഉത്തരവാദിത്തമുണ്ടോ എന്ന് നിങ്ങൾക്ക് ഊഹിക്കാൻ കഴിയുമോ?

മറ്റൊരു ശത്രുതാപരമായ ആക്രമണം, ഒരു സ്റ്റോപ്പ് ചിഹ്നത്തിലേക്ക് ഒരു ചെറിയ ചിത്രം ചേർക്കുന്നത് AI സിസ്റ്റത്തിന് അദൃശ്യമാക്കുന്നത് എങ്ങനെയെന്ന് കാണിച്ചുതന്നു. അടിസ്ഥാനപരമായി, റോഡിൽ സ്റ്റോപ്പ് സൈൻ ഇല്ലെന്ന് വ്യാമോഹിപ്പിക്കാൻ സ്വയം ഡ്രൈവിംഗ് കാർ നിർമ്മിക്കാം എന്നാണ് ഇതിനർത്ഥം. സെൽഫ് ഡ്രൈവിംഗ് കാറുകൾ ഇന്ന് യാഥാർത്ഥ്യമായാൽ എത്ര അപകടങ്ങൾ സംഭവിക്കും? അതുകൊണ്ടാണ് അവർ ഇപ്പോൾ ഇല്ലാത്തത്.

നിലവിൽ പ്രചാരത്തിലുള്ള ചാറ്റ് ഷോകൾ നമ്മൾ കണക്കിലെടുക്കുകയാണെങ്കിൽപ്പോലും, ഹാലുസിനേഷനുകൾക്ക് തെറ്റായ ഔട്ട്പുട്ട് സൃഷ്ടിക്കാൻ കഴിയും. എന്നാൽ AI ചാറ്റ്ബോട്ടുകൾ ഭ്രമാത്മകതയ്ക്ക് സാധ്യതയുണ്ടെന്നും AI ബോട്ടുകൾ നിർമ്മിക്കുന്ന ഔട്ട്പുട്ടിനെ സാധൂകരിക്കാത്തവരാണെന്നും അറിയാത്ത ആളുകൾ അശ്രദ്ധമായി തെറ്റായ വിവരങ്ങൾ പ്രചരിപ്പിക്കാം. ഇത് എത്രത്തോളം അപകടകരമാണെന്ന് വിശദീകരിക്കേണ്ടതില്ല.

കൂടാതെ, ശത്രുതാപരമായ ആക്രമണങ്ങൾ ഒരു പ്രധാന ആശങ്കയാണ്. ഇതുവരെ, അവ ലബോറട്ടറികളിൽ മാത്രമേ കാണിച്ചിട്ടുള്ളൂ. എന്നാൽ ഒരു മിഷൻ-ക്രിട്ടിക്കൽ AI സിസ്റ്റം യഥാർത്ഥ ലോകത്ത് അവരെ അഭിമുഖീകരിക്കുകയാണെങ്കിൽ, അനന്തരഫലങ്ങൾ വിനാശകരമായിരിക്കും.

സ്വാഭാവിക ഭാഷാ മാതൃകകൾ സംരക്ഷിക്കുന്നത് താരതമ്യേന എളുപ്പമാണ് എന്നതാണ് യാഥാർത്ഥ്യം. (ഇത് എളുപ്പമാണെന്ന് ഞങ്ങൾ പറയുന്നില്ല; ഇത് ഇപ്പോഴും വളരെ ബുദ്ധിമുട്ടാണെന്ന് തെളിയിക്കുന്നു.) എന്നിരുന്നാലും, കമ്പ്യൂട്ടർ വിഷൻ സിസ്റ്റങ്ങളെ സംരക്ഷിക്കുന്നത് തികച്ചും വ്യത്യസ്തമായ ഒരു സാഹചര്യമാണ്. ഇത് കൂടുതൽ ബുദ്ധിമുട്ടാണ്, പ്രത്യേകിച്ചും പ്രകൃതി ലോകത്ത് വളരെയധികം വ്യതിയാനങ്ങൾ ഉള്ളതിനാൽ, ചിത്രങ്ങളിൽ ധാരാളം പിക്സലുകൾ അടങ്ങിയിരിക്കുന്നു.

ഈ പ്രശ്നം പരിഹരിക്കാൻ, ലോകത്തെ കൂടുതൽ മാനുഷിക വീക്ഷണമുള്ള ഒരു AI പ്രോഗ്രാം ആവശ്യമായി വന്നേക്കാം, അത് ഭ്രമാത്മകതയ്ക്ക് സാധ്യത കുറയ്ക്കും. ഗവേഷണം നടക്കുമ്പോൾ, പ്രകൃതിയിൽ നിന്ന് സൂചനകൾ സ്വീകരിക്കാനും ഭ്രമാത്മകതയുടെ പ്രശ്നത്തിൽ നിന്ന് രക്ഷപ്പെടാനും കഴിയുന്ന ഒരു കൃത്രിമ ബുദ്ധിയിൽ നിന്ന് നമ്മൾ ഇപ്പോഴും വളരെ അകലെയാണ്. ഇപ്പോൾ, അവ ഒരു കഠിനമായ യാഥാർത്ഥ്യമാണ്.

പൊതുവേ, ഘടകങ്ങളുടെ സംയോജനത്തിൽ നിന്ന് ഉണ്ടാകാവുന്ന ഒരു സങ്കീർണ്ണ പ്രതിഭാസമാണ് AI ഭ്രമാത്മകത. AI സിസ്റ്റങ്ങളുടെ കൃത്യതയും വിശ്വാസ്യതയും മെച്ചപ്പെടുത്തുന്നതിനായി AI ഭ്രമാത്മകത കണ്ടെത്തുന്നതിനും ലഘൂകരിക്കുന്നതിനുമുള്ള രീതികൾ ഗവേഷകർ സജീവമായി വികസിപ്പിക്കുന്നു. എന്നാൽ ഏതെങ്കിലും AI സിസ്റ്റവുമായി ഇടപഴകുമ്പോൾ നിങ്ങൾ അവയെക്കുറിച്ച് അറിഞ്ഞിരിക്കണം.

ബന്ധപ്പെട്ട പോസ്റ്റുകൾ
എന്ന ലേഖനം പ്രസിദ്ധീകരിക്കുക

ഒരു അഭിപ്രായം ചേർക്കുക