ഗണിതത്തിന് ChatGPT വിശ്വസിക്കരുത്

ഗണിതത്തിന് ChatGPT വിശ്വസിക്കരുത്:

വരുന്ന എല്ലാ കാര്യങ്ങളും സാധൂകരിക്കേണ്ടത് പ്രധാനമാണ് ചാറ്റ് GPT أو ബിംഗ് ചാറ്റ് أو ഗൂഗിൾ ബാർഡ് അല്ലെങ്കിൽ ഏതെങ്കിലും മറ്റൊരു ചാറ്റ് പ്രോഗ്രാം . വിശ്വസിച്ചാലും ഇല്ലെങ്കിലും, ഗണിതത്തിന്റെ കാര്യത്തിൽ ഇത് പ്രത്യേകിച്ചും സത്യമാണ്. ChatGPT-ക്ക് കണക്ക് ചെയ്യാൻ കഴിയുമെന്ന് കരുതരുത്. ആധുനിക AI ചാറ്റ്ബോട്ടുകൾ ഗണിതത്തിലും ഗണിതത്തിലും ഉള്ളതിനേക്കാൾ ക്രിയാത്മകമായ എഴുത്തിൽ മികച്ചതാണ്.

ചാറ്റ്ബോട്ടുകൾ കമ്പ്യൂട്ടറുകളല്ല

എല്ലായ്‌പ്പോഴും എന്നപോലെ, AI-യുമായി പ്രവർത്തിക്കുമ്പോൾ, ചടുലമായ എഞ്ചിനീയറിംഗ് പ്രധാനമാണ്. ഒരു നല്ല പ്രതികരണം ലഭിക്കുന്നതിന് നിങ്ങൾക്ക് ധാരാളം വിവരങ്ങൾ നൽകാനും നിങ്ങളുടെ ടെക്സ്റ്റ് പ്രോംപ്റ്റ് ശ്രദ്ധാപൂർവ്വം തയ്യാറാക്കാനും നിങ്ങൾ ആഗ്രഹിക്കുന്നു.

എന്നാൽ പ്രതികരണത്തിൽ കുറ്റമറ്റ ഒരു യുക്തി ലഭിച്ചാൽ പോലും, നിങ്ങൾ അതിന്റെ മധ്യത്തിൽ ഉറ്റുനോക്കുകയും 1 + 1 = 3 എന്ന വരിയിൽ ChatGPT ഒരു പിശക് വരുത്തിയതായി മനസ്സിലാക്കുകയും ചെയ്യാം. എന്നിരുന്നാലും, ChatGPT പലപ്പോഴും ലോജിക്ക് നഷ്ടപ്പെടുത്തുന്നു - അത് നല്ലതല്ല. ഒന്നുകിൽ എണ്ണുമ്പോൾ.

ഒരു വലിയ ഭാഷാ മോഡലിനോട് കാൽക്കുലേറ്ററായി പ്രവർത്തിക്കാൻ ആവശ്യപ്പെടുന്നത് ഒരു കാൽക്കുലേറ്ററിനോട് ഒരു നാടകം എഴുതാൻ ആവശ്യപ്പെടുന്നതിന് തുല്യമാണ് - നിങ്ങൾ എന്താണ് പ്രതീക്ഷിച്ചത്? അതൊന്നും അല്ല.

ഞങ്ങളുടെ പ്രധാന സന്ദേശം ഇവിടെയുണ്ട്: AI-യുടെ പ്രവർത്തനങ്ങൾ രണ്ടുതവണ പരിശോധിക്കുകയോ ട്രിപ്പിൾ പരിശോധിക്കുകയോ ചെയ്യേണ്ടത് പ്രധാനമാണ്. ഇത് ഗണിതശാസ്ത്രത്തിന് മാത്രമല്ല ബാധകമാണ്.

ChatGPT മുഖത്ത് വീഴുന്നതിന്റെ ചില ഉദാഹരണങ്ങൾ ഇതാ. ഞങ്ങൾ ഉപയോഗിച്ചു ചാറ്റ് GPT ഈ ലേഖനത്തിനും സൗജന്യ gpt-3.5-അടിസ്ഥാന-ടർബോ ബിംഗ് ചാറ്റ് , ഇത് GPT 4 അടിസ്ഥാനമാക്കിയുള്ളതാണ്. അതിനാൽ, GPT 4 ഉള്ള ChatGPT പ്ലസ് ChatGPT-ന്റെ സൗജന്യ പതിപ്പിനേക്കാൾ മികച്ചതായിരിക്കുമെങ്കിലും, ഉയർന്ന തലത്തിലുള്ള AI ഉള്ള ഒരു ചാറ്റ്ബോട്ടിൽ പോലും നിങ്ങൾക്ക് ഈ പ്രശ്നങ്ങൾ അനുഭവിക്കേണ്ടി വരും.

ChatGPT കണക്കാക്കാൻ കഴിയില്ല

ഇനങ്ങളുടെ ലിസ്‌റ്റുകൾ കണക്കാക്കുന്നതിന് ChatGPT, Bing എന്നിവ വിശ്വസനീയമാണെന്ന് തോന്നുന്നില്ല. അത്യന്താപേക്ഷിതമായ ഒരു ജോലിയാണെന്ന് തോന്നുന്നു - എന്നാൽ വിശ്വസനീയമായ ഉത്തരം ലഭിക്കുമെന്ന് കണക്കാക്കരുത്.

ഞങ്ങൾ ChatGPT-ന് അക്കങ്ങളുടെ ഒരു കോളം നൽകുകയും ഒരു സംഖ്യയുടെ സംഭവങ്ങൾ എണ്ണാൻ ആവശ്യപ്പെടുകയും ചെയ്തു. (നിങ്ങൾ സ്വയം കണക്കാക്കേണ്ടതില്ല: 100 എന്ന സംഖ്യ 14 തവണ പ്രത്യക്ഷപ്പെടുന്നു എന്നതാണ് ശരിയായ ഉത്തരം.)

നിങ്ങൾ ChatGPT തിരുത്തി ക്ഷമാപണം നടത്തി പുതിയ ഉത്തരം നൽകുമ്പോഴും നിങ്ങൾക്ക് ശരിയായ ഉത്തരം ലഭിക്കണമെന്നില്ല.

ചാറ്റ്ജിപിടി പലപ്പോഴും ഒരു തെറ്റ് മറച്ചുവെക്കാനും നിങ്ങൾക്ക് ഒരു ഉത്തരം നൽകാനും - ഏത് ഉത്തരവും - നിങ്ങളെ അവരുടെ പുറകിൽ നിന്ന് പുറത്താക്കാനും ശ്രമിക്കുന്നതുപോലെയാണ് പ്രവർത്തിക്കുന്നത്. ഇത് യഥാർത്ഥത്തിൽ വളരെ ജീവനുള്ളതാണ്!

പതിവുപോലെ, വ്യത്യസ്‌ത ഉത്തരങ്ങൾ നൽകുമ്പോൾ പോലും ChatGPT അതിന്റെ എല്ലാ ഉത്തരങ്ങളെക്കുറിച്ചും എത്രത്തോളം ഉറപ്പാണ് എന്നതാണ് പ്രധാന പ്രശ്‌നങ്ങളിലൊന്ന്.

ഞങ്ങൾ Microsoft-ൽ നിന്ന് Bing Chat വഴി GPT 4 പരീക്ഷിച്ചു, സമാനമായ ഒരു പ്രശ്‌നത്തിൽ അകപ്പെട്ടു. ഈ വിഷമകരമായ പ്രശ്നം പരിഹരിക്കാൻ ചില പൈത്തൺ കോഡ് എഴുതാൻ ബിംഗ് തീരുമാനിച്ചു, പക്ഷേ ശരിയായ ഉത്തരം ലഭിക്കുന്നതിൽ പരാജയപ്പെട്ടു. (Bing യഥാർത്ഥത്തിൽ കോഡ് പ്രവർത്തിപ്പിച്ചിട്ടില്ല.)

ഗണിതശാസ്ത്രപരമായ ലോജിക് പ്രശ്‌നങ്ങളുമായി ChatGPT പോരാടുന്നു

നിങ്ങൾ ChatGPT ന് ഗണിതത്തിൽ ഒരു "പദപ്രശ്നം" നൽകുകയാണെങ്കിൽ, നിങ്ങൾക്ക് ശരിയായ ഉത്തരം ലഭിക്കാത്ത യുക്തിയുടെ വിചിത്രമായ വളവുകളും തിരിവുകളും നിങ്ങൾ പലപ്പോഴും കാണും.

വ്യത്യസ്‌ത ഫണ്ടുകൾക്കിടയിൽ ഒരു സംഭാവന അനുവദിച്ചുകൊണ്ട് ഒരു നിക്ഷേപ പോർട്ട്‌ഫോളിയോ പുനഃസന്തുലിതമാക്കാൻ ആരെങ്കിലും ശ്രമിക്കുകയാണെങ്കിൽ - അല്ലെങ്കിൽ ഒരുപക്ഷേ ധാരാളം പഴങ്ങൾ വാങ്ങി പഴം അടിസ്ഥാനമാക്കിയുള്ള പോർട്ട്‌ഫോളിയോയിൽ ഉറച്ചുനിൽക്കുകയാണെങ്കിൽ, ആരെങ്കിലും ചോദിക്കുന്നതിനെ പ്രതിഫലിപ്പിക്കുന്ന ഒരു പഴം അടിസ്ഥാനമാക്കിയുള്ള ഗണിത പ്രശ്‌നം ChatGPT ഞങ്ങൾക്ക് നൽകിയിട്ടുണ്ട്. 

ChatGPT നന്നായി ആരംഭിക്കുന്നു, പക്ഷേ പെട്ടെന്ന് അസംബന്ധമായ യുക്തിയായി മാറുകയും ശരിയായ ഉത്തരം നൽകില്ല.

അവസാന ഉത്തരം തെറ്റാണെന്ന് മനസ്സിലാക്കാൻ നിങ്ങൾ എല്ലാ തിരിവുകളും പിന്തുടരേണ്ടതില്ല.

ChatGPT അവരുടെ പ്രതികരണങ്ങളെ കുറിച്ച് പലപ്പോഴും തിരയുകയും നിങ്ങളുമായി തർക്കിക്കുകയും ചെയ്യും. (വീണ്ടും, ഇത് വളരെ മനുഷ്യസമാനമായ പെരുമാറ്റമാണ്.)

ഈ സാഹചര്യത്തിൽ, ChatGPT വാദിച്ചു, ഇത് നിങ്ങൾക്ക് ശരിയായ ഉത്തരം ലഭിച്ചില്ല - എന്നാൽ ഇത് നിങ്ങൾ മുമ്പ് ഉണ്ടായിരുന്നതിനേക്കാൾ നിങ്ങൾ ആഗ്രഹിച്ച ശതമാനത്തിലേക്ക് അടുത്തു! അത് വളരെ തമാശയാണ്.

റെക്കോർഡിനായി, GPT 4-നെ അടിസ്ഥാനമാക്കിയുള്ള Microsoft-ന്റെ Bing Chat ഈ പ്രശ്‌നത്തിലും പോരാടി, ഞങ്ങൾക്ക് വ്യക്തമായും തെറ്റായ ഉത്തരം നൽകുന്നു. GPT 4 ലോജിക് ഇവിടെയും വേഗത്തിൽ ആരംഭിക്കുന്നു.

യുക്തിയുടെ എല്ലാ വളവുകളും തിരിവുകളും പിന്തുടരാൻ ശ്രമിക്കരുതെന്ന് ഞങ്ങൾ ശുപാർശ ചെയ്യുന്നു - ഉത്തരം വ്യക്തമായും തെറ്റാണ്.

ബിംഗിന്റെ ഉത്തരം തെറ്റാണെന്ന് ഞങ്ങൾ ചൂണ്ടിക്കാണിച്ചപ്പോൾ, തെറ്റായ ഉത്തരത്തിന് ശേഷം തെറ്റായ ഉത്തരം നൽകിക്കൊണ്ട് അവൾ വൃത്തങ്ങളിൽ ഞങ്ങളോട് തർക്കം തുടർന്നു.

ChatGPT-ന് ഗണിതവും വിശ്വസനീയമായി ചെയ്യാൻ കഴിയില്ല

ChatGPT ചിലപ്പോൾ ഒഴിവാക്കപ്പെടുകയും പ്രാഥമിക അക്കൗണ്ടിനെ കുറിച്ച് തെറ്റായി പരാമർശിക്കുകയും ചെയ്യുന്നു എന്നത് ശ്രദ്ധിക്കേണ്ടതാണ്. 1 + 1 = 3 സ്മാക്-ഡാബിന് സമാനമായ തെറ്റായ ഗണിത പ്രശ്നങ്ങൾക്കുള്ള യുക്തിസഹമായ ഉത്തരങ്ങൾ ഞങ്ങൾ കണ്ടു.

ChatGPT-ൽ നിന്നും മറ്റ് AI ചാറ്റ്ബോട്ടുകളിൽ നിന്നും നിങ്ങൾക്ക് ലഭിക്കുന്നതെല്ലാം വീണ്ടും പരിശോധിക്കുകയും രണ്ടുതവണ പരിശോധിക്കുകയും ചെയ്യുക.

ബന്ധപ്പെട്ട പോസ്റ്റുകൾ
എന്ന ലേഖനം പ്രസിദ്ധീകരിക്കുക

ഒരു അഭിപ്രായം ചേർക്കുക