ຢ່າເຊື່ອ ChatGPT ສໍາລັບຄະນິດສາດ:
ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ຈະກວດສອບທຸກຢ່າງທີ່ມາຈາກ ສົນທະນາ GPT ຫຼື bingchat ຫຼື Google ເຢັນ ຫຼືໃດໆ ໂຄງການສົນທະນາອື່ນ . ເຊື່ອຫຼືບໍ່, ນີ້ແມ່ນຄວາມຈິງໂດຍສະເພາະຂອງຄະນິດສາດ. ຢ່າຄິດວ່າ ChatGPT ສາມາດເຮັດຄະນິດສາດໄດ້. AI chatbots ທີ່ທັນສະໄຫມແມ່ນດີກວ່າໃນການຂຽນທີ່ສ້າງສັນກ່ວາພວກເຂົາຢູ່ໃນເລກຄະນິດສາດແລະເລກຄະນິດສາດ.
Chatbots ບໍ່ແມ່ນຄອມພິວເຕີ
ໃນຖານະເປັນສະເຫມີ, ເມື່ອເຮັດວຽກກັບ AI, ວິສະວະກໍາທີ່ວ່ອງໄວແມ່ນສໍາຄັນ. ທ່ານຕ້ອງການໃຫ້ຂໍ້ມູນຫຼາຍຢ່າງແລະສ້າງການເຕືອນຂໍ້ຄວາມຂອງທ່ານຢ່າງລະມັດລະວັງເພື່ອໃຫ້ໄດ້ຄໍາຕອບທີ່ດີ.
ແຕ່ເຖິງແມ່ນວ່າທ່ານໄດ້ຮັບເຫດຜົນທີ່ບໍ່ມີຂໍ້ບົກພ່ອງໃນການຕອບສະຫນອງ, ທ່ານອາດຈະເບິ່ງຢູ່ເຄິ່ງກາງຂອງມັນແລະຮູ້ວ່າ ChatGPT ສ້າງຂໍ້ຜິດພາດຕາມເສັ້ນຂອງ 1 + 1 = 3. ຢ່າງໃດກໍຕາມ, ChatGPT ມັກຈະຂາດເຫດຜົນ - ແລະມັນບໍ່ດີ. ໃນການນັບທັງ.
ການຖາມແບບຈໍາລອງພາສາຂະຫນາດໃຫຍ່ເພື່ອເຮັດຫນ້າທີ່ເປັນເຄື່ອງຄິດເລກແມ່ນຄືກັບການຂໍໃຫ້ເຄື່ອງຄິດເລກຂຽນບົດລະຄອນ - ເຈົ້າຄາດຫວັງຫຍັງ? ນັ້ນບໍ່ແມ່ນສິ່ງທີ່ມັນເປັນ.
ຂໍ້ຄວາມຕົ້ນຕໍຂອງພວກເຮົາຢູ່ທີ່ນີ້: ມັນເປັນສິ່ງ ສຳ ຄັນທີ່ຈະກວດເບິ່ງສອງຄັ້ງຫຼືສາມຄັ້ງໃນການກວດສອບການເຮັດວຽກຂອງ AI. ນີ້ໃຊ້ກັບຫຼາຍກ່ວາພຽງແຕ່ຄະນິດສາດ.
ນີ້ແມ່ນບາງຕົວຢ່າງຂອງ ChatGPT ລົ້ມລົງເທິງໃບໜ້າຂອງມັນ. ພວກເຮົາໃຊ້ ສົນທະນາ GPT gpt-3.5-based-turbo ຟຣີສໍາລັບບົດຄວາມນີ້ເຊັ່ນດຽວກັນ bingchat , ເຊິ່ງອີງໃສ່ GPT 4. ດັ່ງນັ້ນ, ໃນຂະນະທີ່ ChatGPT Plus ກັບ GPT 4 ຈະດີກ່ວາສະບັບຟຣີຂອງ ChatGPT, ທ່ານຈະຕ້ອງປະສົບບັນຫາເຫຼົ່ານີ້ເຖິງແມ່ນວ່າມີ chatbot ທີ່ມີລະດັບສູງຂອງ AI.
ChatGPT ບໍ່ສາມາດຄິດໄລ່ໄດ້
ChatGPT ແລະ Bing ເບິ່ງຄືວ່າບໍ່ມີຄວາມຫນ້າເຊື່ອຖືສໍາລັບການຄິດໄລ່ລາຍການລາຍການ. ເບິ່ງຄືວ່າເປັນວຽກງານທີ່ຈໍາເປັນ - ແຕ່ບໍ່ໄດ້ຮັບຄໍາຕອບທີ່ຫນ້າເຊື່ອຖືໄດ້.
ພວກເຮົາໃຫ້ ChatGPT ກັບຖັນຕົວເລກ ແລະຂໍໃຫ້ມັນນັບການປະກົດຕົວຂອງຕົວເລກ. (ທ່ານບໍ່ຈໍາເປັນຕ້ອງນັບຕົວທ່ານເອງ: ຄໍາຕອບທີ່ຖືກຕ້ອງແມ່ນວ່າຈໍານວນ 100 ປະກົດວ່າ 14 ຄັ້ງ.
ເຖິງແມ່ນວ່າໃນເວລາທີ່ທ່ານແກ້ໄຂ ChatGPT ແລະຂໍອະໄພແລະໃຫ້ຄໍາຕອບໃຫມ່, ທ່ານຈະບໍ່ຈໍາເປັນຕ້ອງໄດ້ຮັບຄໍາຕອບທີ່ຖືກຕ້ອງ.
ChatGPT ມັກຈະເຮັດຄືກັບບາງຄົນທີ່ພະຍາຍາມປົກປິດຄວາມຜິດພາດ ແລະໃຫ້ຄຳຕອບແກ່ເຈົ້າ - ຄຳຕອບໃດໆກໍຕາມ - ເພື່ອເຮັດໃຫ້ເຈົ້າຫຼົບຫຼີກເຂົາເຈົ້າ. ມັນເປັນຈິງຫຼາຍມີຊີວິດ!
ຕາມປົກກະຕິ, ຫນຶ່ງໃນບັນຫາໃຫຍ່ແມ່ນແນ່ນອນວ່າ ChatGPT ແມ່ນກ່ຽວກັບຄໍາຕອບທັງຫມົດຂອງມັນ, ເຖິງແມ່ນວ່າມັນເຮັດໃຫ້ເຈົ້າມີຄໍາຕອບທີ່ແຕກຕ່າງກັນ.
ພວກເຮົາໄດ້ພະຍາຍາມ GPT 4 ຜ່ານ Bing Chat ຈາກ Microsoft ແລະແລ່ນເຂົ້າໄປໃນບັນຫາທີ່ຄ້າຍຄືກັນ. Bing ຕັດສິນໃຈຂຽນລະຫັດ Python ບາງຢ່າງເພື່ອແກ້ໄຂບັນຫາທີ່ຫຍຸ້ງຍາກນີ້, ແຕ່ມັນຍັງລົ້ມເຫລວທີ່ຈະໄດ້ຮັບຄໍາຕອບທີ່ຖືກຕ້ອງ. (Bing ບໍ່ໄດ້ແລ່ນລະຫັດຕົວຈິງ.)
ChatGPT ຕໍ່ສູ້ກັບບັນຫາເຫດຜົນທາງຄະນິດສາດ
ຖ້າທ່ານໃຫ້ ChatGPT ເປັນ "ບັນຫາຄໍາສັບ" ໃນຄະນິດສາດ, ທ່ານມັກຈະເຫັນການບິດເບືອນທີ່ແປກປະຫລາດຂອງເຫດຜົນທີ່ຈະບໍ່ໄດ້ຮັບຄໍາຕອບທີ່ຖືກຕ້ອງ.
ChatGPT ໄດ້ໃຫ້ພວກເຮົາມີບັນຫາຄະນິດສາດທີ່ອີງໃສ່ຫມາກໄມ້ທີ່ສະທ້ອນໃຫ້ເຫັນເຖິງສິ່ງທີ່ບາງຄົນອາດຈະຖາມວ່າພວກເຂົາພະຍາຍາມທີ່ຈະດຸ່ນດ່ຽງຫຼັກຊັບການລົງທຶນໂດຍການຈັດສັນການປະກອບສ່ວນລະຫວ່າງກອງທຶນທີ່ແຕກຕ່າງກັນ - ຫຼືບາງທີອາດພຽງແຕ່ຊື້ຫມາກໄມ້ຫຼາຍແລະຕິດກັບຫຼັກຊັບທີ່ອີງໃສ່ຫມາກໄມ້.
ChatGPT ເລີ່ມຕົ້ນດີແຕ່ໄວປ່ຽນເປັນເຫດຜົນທີ່ບໍ່ມີເຫດຜົນ ແລະຈະບໍ່ໃຫ້ຄຳຕອບທີ່ຖືກຕ້ອງ.
ທ່ານບໍ່ ຈຳ ເປັນຕ້ອງຕິດຕາມທຸກຄັ້ງແລະຫັນໄປຮັບຮູ້ວ່າ ຄຳ ຕອບສຸດທ້າຍແມ່ນບໍ່ຖືກຕ້ອງ.
ChatGPT ມັກຈະຊອກຫາ ແລະໂຕ້ແຍ້ງກັບທ່ານກ່ຽວກັບຄໍາຕອບຂອງເຂົາເຈົ້າເຊັ່ນກັນ. (ອີກເທື່ອຫນຶ່ງ, ນີ້ແມ່ນພຶດຕິກໍາທີ່ຄ້າຍຄືກັບມະນຸດ.)
ໃນກໍລະນີນີ້, ChatGPT ໂຕ້ຖຽງ, ນີ້ບໍ່ໄດ້ຮັບຄໍາຕອບທີ່ຖືກຕ້ອງແກ່ເຈົ້າ - ແຕ່ມັນເຮັດໃຫ້ເຈົ້າໃກ້ຊິດກັບອັດຕາສ່ວນທີ່ເຈົ້າຕ້ອງການຫຼາຍກວ່າກ່ອນ! ນັ້ນເປັນເລື່ອງຕະຫລົກຫຼາຍ.
ສໍາລັບບັນທຶກ, Bing Chat ຂອງ Microsoft ອີງໃສ່ GPT 4 ຕໍ່ສູ້ກັບບັນຫານີ້ເຊັ່ນດຽວກັນ, ໃຫ້ພວກເຮົາຄໍາຕອບທີ່ບໍ່ຖືກຕ້ອງແນ່ນອນ. ເຫດຜົນ GPT 4 ເລີ່ມຕົ້ນຢ່າງໄວວາຢູ່ທີ່ນີ້, ເຊັ່ນກັນ.
ພວກເຮົາແນະນໍາໃຫ້ບໍ່ພະຍາຍາມປະຕິບັດຕາມທຸກບິດແລະຫັນຂອງເຫດຜົນ - ຄໍາຕອບແມ່ນບໍ່ຖືກຕ້ອງຢ່າງຊັດເຈນ.
ເມື່ອພວກເຮົາຊີ້ໃຫ້ເຫັນວ່າຄໍາຕອບຂອງ Bing ບໍ່ຖືກຕ້ອງ, ນາງໄດ້ສືບຕໍ່ໂຕ້ຖຽງກັບພວກເຮົາໃນວົງມົນ, ໃຫ້ຄໍາຕອບທີ່ຜິດພາດຫຼັງຈາກຄໍາຕອບຜິດ.
ChatGPT ບໍ່ສາມາດເຮັດຄະນິດສາດໄດ້
ມັນເປັນມູນຄ່າທີ່ສັງເກດວ່າ ChatGPT ບາງຄັ້ງກໍ່ຖືກຂ້າມແລະກ່າວເຖິງບັນຊີຕົ້ນຕໍທີ່ບໍ່ຖືກຕ້ອງເຊັ່ນກັນ. ພວກເຮົາໄດ້ເຫັນຄໍາຕອບທີ່ມີເຫດຜົນຕໍ່ກັບບັນຫາເລກເລກທີ່ບໍ່ຖືກຕ້ອງທີ່ຄ້າຍຄືກັນກັບ 1 + 1 = 3 smack-dab ຢູ່ໃນກາງຂອງຄໍາຕອບທີ່ມີເຫດຜົນດີ.
ໃຫ້ແນ່ໃຈວ່າຈະກວດເບິ່ງຄືນແລະກວດເບິ່ງສອງຄັ້ງທີ່ທ່ານໄດ້ຮັບຈາກ ChatGPT ແລະ AI chatbots ອື່ນໆ.