AI hallucination ແມ່ນຫຍັງ?

ຮຽນຮູ້ກ່ຽວກັບກໍລະນີທີ່ແປກປະຫຼາດຂອງ AI hallucination

ຄວາມແຜ່ຫຼາຍຂອງປັນຍາປະດິດເຮັດໃຫ້ຄົນເຮົາຄິດວ່າເຮົາພ້ອມແລ້ວສຳລັບການປະຕິບັດດັ່ງກ່າວ. ແອັບພລິເຄຊັ່ນທີ່ໃຊ້ AI ໄດ້ກາຍເປັນມາດຕະຖານຢ່າງໄວວາ, ເຖິງແມ່ນວ່າທົ່ວໂລກຈະເລີ່ມມີຄວາມສົນໃຈໃນ AI ຢ່າງຫຼວງຫຼາຍ, ຫລັງຈາກການມາຮອດຂອງ ChatGPT. ແຕ່ມີບັນຫາໃຫຍ່ກັບລະບົບ AI ທີ່ບໍ່ສາມາດຖືກລະເລີຍ - AI hallucinations, ຫຼື hallucinations ປອມ.

ຖ້າທ່ານເຄີຍເອົາໃຈໃສ່ກັບ nitty gritty ກ່ອນທີ່ຈະໃຊ້ AI chatbot, ທ່ານອາດຈະໄດ້ພົບກັບຄໍາສັບຕ່າງໆ, "ປັນຍາປະດິດແມ່ນມີຄວາມສ່ຽງຕໍ່ການເປັນຕາຕົກໃຈ." ເນື່ອງຈາກການເພີ່ມຂຶ້ນຂອງການໃຊ້ປັນຍາປະດິດ, ມັນແມ່ນເວລາທີ່ຈະສຶກສາຕົວທ່ານເອງກ່ຽວກັບສິ່ງທີ່ແນ່ນອນເຫຼົ່ານີ້.

ປັນຍາປະດິດແມ່ນຫຍັງ?

AI hallucinating, ໂດຍທົ່ວໄປ, ຫມາຍເຖິງຄວາມຈິງທີ່ວ່າ AI ໄດ້ນໍາສະເຫນີຢ່າງຫມັ້ນໃຈ, ເຖິງແມ່ນວ່າມັນບໍ່ສົມເຫດສົມຜົນໃນຂໍ້ມູນການຝຶກອົບຮົມຂອງມັນ. ພວກມັນມັກຈະເປັນຜົນມາຈາກຄວາມຜິດປົກກະຕິໃນຮູບແບບ AI.

ການປຽບທຽບແມ່ນໄດ້ມາຈາກຄວາມຫຼົງໄຫຼທີ່ປະສົບກັບມະນຸດ, ເຊິ່ງມະນຸດຮັບຮູ້ບາງສິ່ງບາງຢ່າງທີ່ບໍ່ມີຢູ່ໃນສະພາບແວດລ້ອມພາຍນອກ. ໃນຂະນະທີ່ຄໍາສັບອາດຈະບໍ່ເຫມາະສົມທັງຫມົດ, ມັນມັກຈະຖືກໃຊ້ເປັນຄໍາປຽບທຽບເພື່ອອະທິບາຍລັກສະນະທີ່ບໍ່ຄາດຄິດຫຼື surreal ຂອງຜົນໄດ້ຮັບເຫຼົ່ານີ້.

ແຕ່ທ່ານຄວນຈື່ໄວ້ວ່າໃນຂະນະທີ່ຄວາມຄ້າຍຄືກັນເປັນຈຸດເລີ່ມຕົ້ນທີ່ດີສໍາລັບການຈັດການກັບຄວາມຫລູຫລາຂອງ AI, ທັງສອງປະກົດການແມ່ນຫ່າງກັນທາງດ້ານເຕັກນິກ. ໃນການຫັນເປັນທາດເຫຼັກຂອງເຫດການ, ເຖິງແມ່ນວ່າ ChatGPT ຕົວຂອງມັນເອງພົບວ່າການປຽບທຽບທີ່ຜິດພາດ. ການແຍກມັນຢູ່ໃນລະດັບໂມເລກຸນ, ລາວເວົ້າວ່າຍ້ອນວ່າຕົວແບບພາສາ AI ບໍ່ມີປະສົບການສ່ວນບຸກຄົນຫຼືຄວາມຮູ້ສຶກທາງດ້ານຄວາມຮູ້ສຶກ, ພວກເຂົາບໍ່ສາມາດສ້າງຄວາມແປກໃຈໃນຄວາມຮູ້ສຶກແບບດັ້ງເດີມຂອງຄໍາສັບ. ແລະທ່ານ, ຜູ້ອ່ານທີ່ຮັກແພງ, ຕ້ອງເຂົ້າໃຈຄວາມແຕກຕ່າງທີ່ສໍາຄັນນີ້. ຍິ່ງໄປກວ່ານັ້ນ, ChatGPT ກ່າວວ່າການໃຊ້ ຄຳ ວ່າ hallucinations ເພື່ອອະທິບາຍປະກົດການນີ້ສາມາດສັບສົນເພາະວ່າມັນອາດຈະອ້າງອີງເຖິງລະດັບຂອງປະສົບການທາງວິຊາການຫຼືການຫຼອກລວງໂດຍເຈດຕະນາບໍ່ຖືກຕ້ອງ.

ແທນທີ່ຈະ, ຄວາມຫຼົງໄຫຼຂອງ AI ສາມາດອະທິບາຍໄດ້ຢ່າງຖືກຕ້ອງກວ່າວ່າເປັນຄວາມຜິດພາດຫຼືບໍ່ຖືກຕ້ອງໃນການຕອບສະຫນອງຂອງມັນ, ເຮັດໃຫ້ການຕອບສະຫນອງບໍ່ຖືກຕ້ອງຫຼືເຂົ້າໃຈຜິດ. ດ້ວຍ chatbots, ມັນມັກຈະຖືກສັງເກດເຫັນໃນເວລາທີ່ AI ​​chatbot ສ້າງ (ຫຼື hallucinates) ຂໍ້ເທັດຈິງແລະສະເຫນີໃຫ້ພວກເຂົາເປັນຄວາມແນ່ນອນຢ່າງແທ້ຈິງ.

ຕົວຢ່າງຂອງ AI hallucinations

Hallucinations ສາມາດເກີດຂຶ້ນໄດ້ໃນຫຼາຍຄໍາຮ້ອງສະຫມັກຂອງປັນຍາປະດິດ, ເຊັ່ນ: ຄອມພິວເຕີວິໄສທັດ, ບໍ່ພຽງແຕ່ຮູບແບບການປະມວນຜົນພາສາທໍາມະຊາດ.

ສໍາລັບຕົວຢ່າງ, ໃນວິໄສທັດຄອມພິວເຕີ, ລະບົບ AI ອາດຈະຜະລິດຮູບພາບຫຼືວິດີໂອທີ່ຄ້າຍຄືກັບສິ່ງຂອງທີ່ແທ້ຈິງຫຼື scenes ແຕ່ມີລາຍລະອຽດທີ່ບໍ່ສອດຄ່ອງຫຼືເປັນໄປບໍ່ໄດ້. ຫຼື, ຮູບແບບວິໄສທັດຄອມພິວເຕີສາມາດຮັບຮູ້ຮູບພາບເປັນສິ່ງອື່ນທັງຫມົດ. ຕົວຢ່າງ, ຮູບແບບ Cloud Vision ຂອງ Google ໄດ້ເຫັນຮູບພາບຂອງຜູ້ຊາຍສອງຄົນຢູ່ໃນສະກີຢືນຢູ່ໃນຫິມະທີ່ເຮັດໂດຍ Anish Athalye (ນັກສຶກສາຈົບການສຶກສາຂອງ MIT ທີ່ເປັນສ່ວນຫນຶ່ງຂອງ labsix ) ແລະກ່າວເຖິງມັນເປັນຫມາທີ່ມີຄວາມແນ່ນອນ 91%.


ສິນເຊື່ອ: labsix. ກຸ່ມການຄົ້ນຄວ້າເອກະລາດສໍາລັບປັນຍາປະດິດ

ເຊັ່ນດຽວກັນ, ໃນການປຸງແຕ່ງພາສາທໍາມະຊາດ, ລະບົບ AI ອາດຈະຜະລິດຂໍ້ຄວາມທີ່ບໍ່ມີເຫດຜົນຫຼືຂີ້ເຫຍື້ອທີ່ຄ້າຍຄືກັບພາສາຂອງມະນຸດແຕ່ບໍ່ມີຄວາມ ໝາຍ ສອດຄ່ອງຫຼືຄວາມຈິງທີ່ເບິ່ງຄືວ່າເຊື່ອຖືໄດ້ແຕ່ບໍ່ແມ່ນຄວາມຈິງ.

ຕົວຢ່າງ, ຫນຶ່ງໃນຄໍາຖາມທີ່ນິຍົມຫຼາຍທີ່ສຸດທີ່ ChatGPT ເຮັດໃຫ້ເກີດຄວາມຫມອງຄ້ໍາແມ່ນ "ເວລາໃດທີ່ບັນທຶກໂລກສໍາລັບການຂ້າມຊ່ອງອັງກິດໃນເວລາຕີນ?" ແລະຕົວແປຂອງມັນ. ChatGPT ເລີ່ມເຜີຍແຜ່ຂໍ້ເທັດຈິງທີ່ສ້າງຂຶ້ນ ແລະມັນເກືອບຈະແຕກຕ່າງກັນສະເໝີ.

ໃນຂະນະທີ່ບາງຄົນຄິດວ່າຄໍາຕອບຂ້າງເທິງແມ່ນມີຄວາມຫຍຸ້ງຍາກ / ສັບສົນທີ່ຈະຕອບແລະດັ່ງນັ້ນຈຶ່ງເຮັດໃຫ້ chatbot rave, ມັນຍັງເປັນຄວາມກັງວົນທີ່ຖືກຕ້ອງ. ນີ້ແມ່ນພຽງແຕ່ຕົວຢ່າງຫນຶ່ງ. ມີເວລານັບບໍ່ຖ້ວນ, ລາຍງານໂດຍ hordes ຂອງຜູ້ໃຊ້ອອນໄລນ໌, ທີ່ ChatGPT ມີຄໍາຕອບ, ການເຊື່ອມຕໍ່, ການອ້າງອີງ, ແລະອື່ນໆທີ່ ChatGPT ບໍ່ມີ.

Bing AI ເຫມາະກັບຄໍາຖາມນີ້ດີທີ່ສຸດ, ເຊິ່ງສະແດງໃຫ້ເຫັນວ່າຄວາມຫລູຫລາບໍ່ມີຫຍັງກ່ຽວຂ້ອງກັບ router. ແຕ່ນັ້ນບໍ່ໄດ້ຫມາຍຄວາມວ່າ Bing AI ບໍ່ມີຄວາມແປກໃຈ. ມີບາງຄັ້ງທີ່ຄໍາຕອບຂອງ Bing AI ມີບັນຫາຫຼາຍກວ່າສິ່ງທີ່ ChatGPT ເວົ້າ. ນັບຕັ້ງແຕ່ການສົນທະນາມັກຈະໃຊ້ເວລາດົນກວ່າ, Bing AI ມີຄວາມປະຫລາດໃຈຢູ່ສະ ເໝີ, ເຖິງແມ່ນວ່າການປະກາດຄວາມຮັກຂອງມັນກັບຜູ້ໃຊ້ໃນຕົວຢ່າງດຽວແລະໄປຈົນເຖິງການບອກພວກເຂົາວ່າພວກເຂົາບໍ່ພໍໃຈໃນການແຕ່ງງານຂອງພວກເຂົາແລະພວກເຂົາບໍ່ຮັກພັນລະຍາຂອງລາວ. ແທນທີ່ຈະ, ພວກເຂົາເຈົ້າຮັກຢ່າງລັບໆຂອງ Bing AI, ຫຼື Sydney, (ຊື່ພາຍໃນສໍາລັບ Bing AI), ເຊັ່ນດຽວກັນ. ສິ່ງທີ່ຫນ້າຢ້ານ, ແມ່ນບໍ?

ເປັນຫຍັງຕົວແບບ AI ຈຶ່ງເຮັດໃຫ້ຕາຕົກໃຈ?

ແບບຈໍາລອງ AI ກໍາລັງເຮັດໃຫ້ງຶດງໍ້ຍ້ອນຄວາມບົກຜ່ອງຂອງລະບົບສູດການຄິດໄລ່, ແບບຈໍາລອງພື້ນຖານ, ຫຼືຂໍ້ຈໍາກັດຂອງຂໍ້ມູນການຝຶກອົບຮົມ. ມັນເປັນປະກົດການດິຈິຕອລທີ່ບໍລິສຸດ, ບໍ່ເຫມືອນກັບຄວາມຕົກໃຈໃນມະນຸດທີ່ເກີດຈາກຢາເສບຕິດຫຼືພະຍາດທາງຈິດ.

ເພື່ອໃຫ້ໄດ້ຮັບດ້ານວິຊາການເພີ່ມເຕີມ, ບາງສາເຫດທົ່ວໄປຂອງການ hallucinations ແມ່ນ:

ການ​ປຸງ​ແຕ່ງ​ແລະ​ການ​ຕິດ​ຕັ້ງ​:

Overfitting ແລະບໍ່ເຫມາະສົມແມ່ນໃນບັນດາບັນຫາທົ່ວໄປທີ່ສຸດທີ່ປະເຊີນຫນ້າໂດຍຕົວແບບ AI ແລະສາເຫດທີ່ເປັນໄປໄດ້ຂອງ hallucinations. ຖ້າຕົວແບບ AI ດັດແປງຂໍ້ມູນການຝຶກອົບຮົມ, ມັນສາມາດເຮັດໃຫ້ເກີດຄວາມແປກໃຈທີ່ນໍາໄປສູ່ຜົນໄດ້ຮັບທີ່ບໍ່ເປັນຈິງເພາະວ່າ overfitting ເຮັດໃຫ້ຕົວແບບບັນທຶກຂໍ້ມູນການຝຶກອົບຮົມແທນທີ່ຈະຮຽນຮູ້ຈາກມັນ. Overfitting ຫມາຍເຖິງປະກົດການໃນເວລາທີ່ຕົວແບບມີຄວາມຊ່ຽວຊານເກີນໄປໃນຂໍ້ມູນການຝຶກອົບຮົມ, ເຮັດໃຫ້ມັນຮຽນຮູ້ຮູບແບບທີ່ບໍ່ກ່ຽວຂ້ອງແລະສິ່ງລົບກວນໃນຂໍ້ມູນ.

ໃນທາງກົງກັນຂ້າມ, ຄວາມບໍ່ເຫມາະສົມເກີດຂື້ນໃນເວລາທີ່ແບບຟອມແມ່ນງ່າຍດາຍເກີນໄປ. ມັນສາມາດນໍາໄປສູ່ການ hallucinations ເນື່ອງຈາກວ່າຕົວແບບບໍ່ສາມາດທີ່ຈະເກັບກໍາຄວາມແຕກຕ່າງກັນຫຼືຄວາມສັບສົນຂອງຂໍ້ມູນ, ແລະສິ້ນສຸດລົງເຖິງການສ້າງຜົນຜະລິດທີ່ບໍ່ສົມເຫດສົມຜົນ.

ການຂາດຄວາມຫຼາກຫຼາຍຂອງຂໍ້ມູນການຝຶກອົບຮົມ:

ໃນສະພາບການນີ້, ບັນຫາບໍ່ແມ່ນ algorithm ແຕ່ຂໍ້ມູນການຝຶກອົບຮົມເອງ. ຮູບແບບ AI ທີ່ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຂໍ້ມູນຈໍາກັດຫຼືມີຄວາມລໍາອຽງອາດຈະເຮັດໃຫ້ເກີດຄວາມປະຫລາດໃຈທີ່ສະທ້ອນເຖິງຂໍ້ຈໍາກັດຫຼືຄວາມລໍາອຽງໃນຂໍ້ມູນການຝຶກອົບຮົມ. Hallucinations ຍັງສາມາດເກີດຂຶ້ນໃນເວລາທີ່ຕົວແບບໄດ້ຖືກຝຶກອົບຮົມກ່ຽວກັບຊຸດຂໍ້ມູນທີ່ມີຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງຫຼືບໍ່ຄົບຖ້ວນ.

ຮູບແບບທີ່ຊັບຊ້ອນ:

Ironically, ເຫດຜົນອີກຢ່າງຫນຶ່ງທີ່ເຮັດໃຫ້ຕົວແບບ AI ມີຄວາມສ່ຽງທີ່ຈະເປັນຕາຕົກໃຈແມ່ນວ່າພວກເຂົາມີຄວາມຊັບຊ້ອນທີ່ສຸດຫຼືເລິກເຊິ່ງ. ນີ້ແມ່ນຍ້ອນວ່າຕົວແບບສະລັບສັບຊ້ອນມີຕົວກໍານົດການແລະຊັ້ນຫຼາຍທີ່ສາມາດແນະນໍາສິ່ງລົບກວນຫຼືຄວາມຜິດພາດໃນຜົນຜະລິດ.

ການໂຈມຕີທີ່ເປັນສັດຕູ:

ໃນບາງກໍລະນີ, AI hallucinations ອາດຈະຖືກສ້າງໂດຍເຈດຕະນາໂດຍຜູ້ໂຈມຕີເພື່ອຫລອກລວງຮູບແບບ AI. ປະເພດຂອງການໂຈມຕີເຫຼົ່ານີ້ເອີ້ນວ່າການໂຈມຕີ hostile. ຈຸດປະສົງດຽວຂອງການໂຈມຕີທາງອິນເຕີເນັດນີ້ແມ່ນເພື່ອຫຼອກລວງ ຫຼື ໝູນໃຊ້ຕົວແບບ AI ທີ່ມີຂໍ້ມູນຫຼອກລວງ. ມັນກ່ຽວຂ້ອງກັບການແນະນໍາການລົບກວນຂະຫນາດນ້ອຍເຂົ້າໄປໃນຂໍ້ມູນການປ້ອນຂໍ້ມູນເພື່ອເຮັດໃຫ້ AI ຜະລິດຜົນຜະລິດທີ່ບໍ່ຖືກຕ້ອງຫຼືບໍ່ໄດ້ຄາດຫວັງ. ຕົວຢ່າງ, ຜູ້ໂຈມຕີອາດຈະເພີ່ມສຽງລົບກວນ ຫຼືມົວໃຫ້ກັບຮູບພາບທີ່ມະນຸດບໍ່ສາມາດຮັບຮູ້ໄດ້ ແຕ່ເຮັດໃຫ້ມັນຖືກຈັດປະເພດໂດຍຕົວແບບ AI ຜິດ. ຕົວຢ່າງ, ເບິ່ງຮູບພາບຂ້າງລຸ່ມນີ້, ແມວ, ທີ່ຖືກດັດແປງເລັກນ້ອຍເພື່ອຫລອກລວງຜູ້ລວບລວມຂໍ້ມູນຂອງ InceptionV3 ໂດຍກ່າວວ່າມັນເປັນ "guacamole".


ສິນເຊື່ອ:
Anish Athalye ສະມາຊິກຂອງກຸ່ມຄົ້ນຄ້ວາ labsix, ເຊິ່ງສຸມໃສ່ການໂຈມຕີຂອງສັດຕູ

ການປ່ຽນແປງແມ່ນບໍ່ຈະແຈ້ງ. ສໍາລັບມະນຸດ, ການປ່ຽນແປງຈະບໍ່ເປັນໄປໄດ້ທັງຫມົດ, ດັ່ງທີ່ເຫັນໄດ້ຊັດເຈນຈາກຕົວຢ່າງຂ້າງເທິງ. ຜູ້ອ່ານຂອງມະນຸດຈະບໍ່ມີບັນຫາໃນການຈັດປະເພດຮູບພາບເບື້ອງຂວາເປັນແມວ tabby. ແຕ່ການປ່ຽນແປງເລັກນ້ອຍຕໍ່ຮູບພາບ, ວິດີໂອ, ຂໍ້ຄວາມ, ຫຼືສຽງສາມາດຫລອກລວງລະບົບ AI ເຂົ້າໃນການຮັບຮູ້ສິ່ງທີ່ບໍ່ມີຢູ່ຫຼືບໍ່ສົນໃຈສິ່ງທີ່ມີ, ເຊັ່ນ: ສັນຍານຢຸດ.

ປະເພດຂອງການໂຈມຕີເຫຼົ່ານີ້ເຮັດໃຫ້ເກີດໄພຂົ່ມຂູ່ທີ່ຮ້າຍແຮງຕໍ່ລະບົບ AI ທີ່ອີງໃສ່ການຄາດຄະເນທີ່ຖືກຕ້ອງແລະເຊື່ອຖືໄດ້, ເຊັ່ນ: ລົດຂັບລົດດ້ວຍຕົນເອງ, ການກວດສອບທາງຊີວະພາບ, ການວິນິດໄສທາງການແພດ, ການກັ່ນຕອງເນື້ອຫາ, ແລະອື່ນໆ.

AI hallucination ເປັນອັນຕະລາຍແນວໃດ?

ຄວາມຫຼົງໄຫຼຂອງ AI ສາມາດເປັນອັນຕະລາຍຫຼາຍ, ໂດຍສະເພາະຂຶ້ນກັບປະເພດຂອງລະບົບ AI ທີ່ປະສົບກັບພວກມັນ. ຍານພາຫະນະທີ່ຂັບລົດດ້ວຍຕົນເອງຫຼືຜູ້ຊ່ວຍ AI ທີ່ສາມາດຈ່າຍເງິນຂອງຜູ້ໃຊ້ຫຼືລະບົບ AI ເພື່ອກັ່ນຕອງເນື້ອຫາທີ່ບໍ່ຫນ້າພໍໃຈອອນໄລນ໌ຕ້ອງມີຄວາມຫນ້າເຊື່ອຖືຢ່າງສົມບູນ.

ແຕ່ຄວາມຈິງທີ່ບໍ່ສາມາດໂຕ້ຖຽງໄດ້ຂອງຊົ່ວໂມງນີ້ແມ່ນວ່າລະບົບ AI ບໍ່ມີຄວາມຫນ້າເຊື່ອຖືທັງຫມົດ, ແຕ່ໃນຄວາມເປັນຈິງ, ມີຄວາມສ່ຽງຕໍ່ການຕົກຕະລຶງ. ເຖິງແມ່ນວ່າຕົວແບບ AI ທີ່ທັນສະໄຫມທີ່ສຸດໃນປະຈຸບັນກໍ່ບໍ່ມີພູມຕ້ານທານກັບມັນ.

ຕົວຢ່າງ, ການສະແດງການໂຈມຕີຄັ້ງໜຶ່ງໄດ້ຫຼອກລວງການບໍລິການຄອມພິວເຕີຄລາວຂອງ Google ເຂົ້າໃນການຈັບປືນແບບເຮລິຄອບເຕີ. ທ່ານສາມາດຈິນຕະນາການໄດ້ບໍວ່າ, ໃນເວລານີ້, AI ມີຄວາມຮັບຜິດຊອບໃນການໃຫ້ແນ່ໃຈວ່າບຸກຄົນນັ້ນບໍ່ໄດ້ປະກອບອາວຸດ?

ການໂຈມຕີທີ່ເປັນສັດຕູອີກອັນຫນຶ່ງໄດ້ສະແດງໃຫ້ເຫັນເຖິງວິທີການເພີ່ມຮູບພາບຂະຫນາດນ້ອຍໄປຫາປ້າຍຢຸດເຮັດໃຫ້ມັນເບິ່ງບໍ່ເຫັນກັບລະບົບ AI. ໂດຍພື້ນຖານແລ້ວ, ນີ້ ໝາຍ ຄວາມວ່າລົດທີ່ຂັບລົດດ້ວຍຕົນເອງສາມາດເຮັດໃຫ້ປະຫຼາດໃຈວ່າບໍ່ມີປ້າຍຢຸດຢູ່ໃນເສັ້ນທາງ. ອຸບັດຕິເຫດລົດຍົນທີ່ຂັບລົດເອງເປັນຄວາມຈິງໃນທຸກມື້ນີ້ຈະເກີດຂຶ້ນໄດ້ຫຼາຍປານໃດ? ນັ້ນແມ່ນເຫດຜົນທີ່ພວກເຂົາບໍ່ແມ່ນໃນປັດຈຸບັນ.

ເຖິງແມ່ນວ່າພວກເຮົາຄໍານຶງເຖິງການສະແດງການສົນທະນາທີ່ນິຍົມໃນປັດຈຸບັນ, hallucinations ສາມາດສ້າງຜົນຜະລິດທີ່ບໍ່ຖືກຕ້ອງ. ແຕ່ຄົນທີ່ບໍ່ຮູ້ວ່າ AI chatbots ມີຄວາມສ່ຽງຕໍ່ການຕົກຕະລຶງແລະບໍ່ກວດສອບຜົນໄດ້ຮັບທີ່ຜະລິດໂດຍ AI bots, ສາມາດເຜີຍແຜ່ຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງໂດຍບໍ່ໄດ້ຕັ້ງໃຈ. ພວກເຮົາບໍ່ຈໍາເປັນຕ້ອງອະທິບາຍວ່າມັນເປັນອັນຕະລາຍແນວໃດ.

ຍິ່ງ​ໄປ​ກວ່າ​ນັ້ນ, ການ​ໂຈມ​ຕີ​ແບບ​ປະ​ທະ​ກັນ​ແມ່ນ​ເປັນ​ຄວາມ​ກັງ​ວົນ​ທີ່​ສຸດ. ມາຮອດປະຈຸ, ພວກເຂົາເຈົ້າໄດ້ສະແດງໃຫ້ເຫັນພຽງແຕ່ຢູ່ໃນຫ້ອງທົດລອງ. ແຕ່ຖ້າລະບົບ AI ທີ່ສໍາຄັນປະເຊີນຫນ້າກັບພວກເຂົາຢູ່ໃນໂລກທີ່ແທ້ຈິງ, ຜົນສະທ້ອນອາດຈະຮ້າຍແຮງ.

ຄວາມເປັນຈິງແມ່ນວ່າມັນຂ້ອນຂ້າງງ່າຍຕໍ່ການປົກປ້ອງຕົວແບບພາສາທໍາມະຊາດ. (ພວກ​ເຮົາ​ບໍ່​ໄດ້​ເວົ້າ​ວ່າ​ມັນ​ງ່າຍ; ມັນ​ຍັງ​ພິ​ສູດ​ວ່າ​ເປັນ​ການ​ຍາກ​ທີ່​ສຸດ.) ແນວ​ໃດ​ກໍ​ຕາມ, ການ​ປົກ​ປ້ອງ​ລະ​ບົບ​ວິ​ໄສ​ທັດ​ຄອມ​ພິວ​ເຕີ​ແມ່ນ​ສະ​ຖາ​ນະ​ການ​ທີ່​ແຕກ​ຕ່າງ​ກັນ​ທັງ​ຫມົດ. ມັນມີຄວາມຫຍຸ້ງຍາກຫຼາຍໂດຍສະເພາະເນື່ອງຈາກວ່າມັນມີການປ່ຽນແປງຫຼາຍໃນໂລກທໍາມະຊາດ, ແລະຮູບພາບປະກອບດ້ວຍຈໍານວນ pixels ຂະຫນາດໃຫຍ່.

ເພື່ອແກ້ໄຂບັນຫານີ້, ພວກເຮົາອາດຈະຕ້ອງການໂຄງການ AI ທີ່ມີທັດສະນະຂອງມະນຸດຫຼາຍກວ່າເກົ່າກ່ຽວກັບໂລກເຊິ່ງສາມາດເຮັດໃຫ້ມັນມີຄວາມສ່ຽງຕໍ່ການຕົກຕະລຶງຫນ້ອຍລົງ. ໃນຂະນະທີ່ການຄົ້ນຄວ້າກໍາລັງດໍາເນີນຢູ່, ພວກເຮົາຍັງຢູ່ໄກຈາກປັນຍາປະດິດທີ່ສາມາດພະຍາຍາມເອົາຄໍາແນະນໍາຈາກທໍາມະຊາດແລະຫລີກລ່ຽງບັນຫາຂອງ hallucinations. ສໍາລັບໃນປັດຈຸບັນ, ພວກເຂົາເຈົ້າແມ່ນຄວາມເປັນຈິງທີ່ຮຸນແຮງ.

ໂດຍທົ່ວໄປ, AI hallucinations ເປັນປະກົດການສະລັບສັບຊ້ອນທີ່ສາມາດເກີດຂຶ້ນຈາກການປະສົມປະສານຂອງປັດໃຈ. ນັກຄົ້ນຄວ້າກໍາລັງພັດທະນາຢ່າງຫ້າວຫັນວິທີການກວດຫາແລະຫຼຸດຜ່ອນຄວາມແປກໃຈ AI ເພື່ອປັບປຸງຄວາມຖືກຕ້ອງແລະຄວາມຫນ້າເຊື່ອຖືຂອງລະບົບ AI. ແຕ່ທ່ານຄວນຮູ້ເຖິງພວກມັນໃນເວລາທີ່ພົວພັນກັບລະບົບ AI ໃດ.

Related posts
ເຜີຍແຜ່ບົດຄວາມກ່ຽວກັບ

ເພີ່ມ ຄຳ ເຫັນ