ภาพหลอน AI คืออะไร?

เรียนรู้เกี่ยวกับกรณีแปลกๆ ของ AI ภาพหลอน

ความแพร่หลายของปัญญาประดิษฐ์ทำให้เราคิดว่าเราพร้อมสำหรับการดำเนินการดังกล่าวแล้ว แอปพลิเคชันที่ขับเคลื่อนด้วย AI กำลังกลายเป็นมาตรฐานอย่างรวดเร็ว แม้ว่าส่วนใหญ่ในโลกเพิ่งเริ่มสนใจ AI ในวงกว้าง หลังจากการมาถึงของ ChatGPT แต่มีปัญหาใหญ่เกี่ยวกับระบบ AI ที่ไม่สามารถเพิกเฉยได้ - ภาพหลอน AI หรือภาพหลอนเทียม

หากคุณเคยให้ความสนใจกับเกร็ดเล็กเกร็ดน้อยก่อนที่จะใช้แชทบอท AI คุณอาจเจอคำว่า "ปัญญาประดิษฐ์มีแนวโน้มที่จะเกิดภาพหลอน" เนื่องจากการใช้ปัญญาประดิษฐ์เพิ่มขึ้นแบบทวีคูณ จึงถึงเวลาที่จะต้องเรียนรู้ว่าสิ่งเหล่านี้คืออะไรกันแน่

ภาพหลอนปัญญาประดิษฐ์คืออะไร?

โดยทั่วไปแล้ว ภาพหลอนของ AI หมายถึงข้อเท็จจริงที่ AI ได้นำเสนออย่างมั่นใจ แม้ว่าจะไม่สมเหตุสมผลในข้อมูลการฝึกอบรมก็ตาม มักเป็นผลมาจากความผิดปกติในโมเดล AI

การเปรียบเทียบนี้นำมาจากอาการประสาทหลอนที่มนุษย์ประสบ ซึ่งมนุษย์รับรู้บางสิ่งที่ไม่มีอยู่ในสภาพแวดล้อมภายนอก แม้ว่าคำนี้อาจไม่เหมาะสมทั้งหมด แต่มักใช้เป็นคำเปรียบเทียบเพื่ออธิบายลักษณะที่คาดไม่ถึงหรือเหนือจริงของผลลัพธ์เหล่านี้

แต่คุณควรจำไว้ว่าแม้ว่าความคล้ายคลึงกันจะเป็นจุดเริ่มต้นที่ดีในการจัดการกับภาพหลอนของ AI แต่ปรากฏการณ์ทั้งสองนั้นห่างกันมากในทางเทคนิค ในเหตุการณ์พลิกผันที่น่าขัน แม้แต่ ChatGPT เองก็พบว่าการเปรียบเทียบนั้นผิด เขากล่าวว่าเนื่องจากแบบจำลองภาษา AI ไม่มีประสบการณ์ส่วนตัวหรือการรับรู้ทางประสาทสัมผัส จึงไม่สามารถทำให้เกิดภาพหลอนตามความหมายดั้งเดิมของคำนี้ได้ และคุณผู้อ่านที่รักต้องเข้าใจความแตกต่างที่สำคัญนี้ นอกจากนี้ ChatGPT ยังกล่าวอีกว่าการใช้คำว่าภาพหลอนเพื่ออธิบายปรากฏการณ์นี้อาจทำให้เกิดความสับสน เนื่องจากอาจหมายถึงระดับประสบการณ์ส่วนตัวหรือการหลอกลวงโดยเจตนาอย่างไม่ถูกต้อง

ในทางกลับกัน ภาพหลอนของ AI สามารถอธิบายได้แม่นยำกว่าว่าเป็นข้อผิดพลาดหรือความไม่ถูกต้องในการตอบสนอง ทำให้การตอบสนองไม่ถูกต้องหรือทำให้เข้าใจผิด เมื่อใช้แชทบอท มักจะสังเกตเห็นได้เมื่อแชทบอท AI สร้างข้อเท็จจริง (หรือสร้างภาพหลอน) และแสดงข้อเท็จจริงเหล่านั้นเป็นข้อมูลที่ชัดเจน

ตัวอย่างภาพหลอนของ AI

อาการประสาทหลอนสามารถเกิดขึ้นได้ในการประยุกต์ใช้ปัญญาประดิษฐ์หลายอย่าง เช่น แบบจำลองการมองเห็นด้วยคอมพิวเตอร์ ไม่ใช่แค่แบบจำลองการประมวลผลภาษาธรรมชาติ

ตัวอย่างเช่น ในการมองเห็นด้วยคอมพิวเตอร์ ระบบ AI อาจสร้างภาพหรือวิดีโอหลอนประสาทที่คล้ายกับวัตถุหรือฉากจริง แต่มีรายละเอียดที่ไม่เกี่ยวข้องหรือเป็นไปไม่ได้ หรือแบบจำลองการมองเห็นด้วยคอมพิวเตอร์สามารถรับรู้ภาพเป็นอย่างอื่นได้ทั้งหมด ตัวอย่างเช่น โมเดล Cloud Vision ของ Google เห็นภาพชายสองคนกำลังเล่นสกียืนอยู่บนหิมะ สร้างโดย Anish Athalye (นักศึกษาระดับบัณฑิตศึกษาจาก MIT ซึ่งเป็นส่วนหนึ่งของ แล็บซิกซ์ ) และบอกว่ามันเป็นสุนัขที่มีความมั่นใจ 91%


เครดิต: labsix. กลุ่มวิจัยอิสระสำหรับปัญญาประดิษฐ์

ในทำนองเดียวกัน ในการประมวลผลภาษาธรรมชาติ ระบบ AI อาจสร้างข้อความที่ไร้เหตุผลหรืออ่านไม่ออกซึ่งคล้ายกับภาษามนุษย์แต่ไม่มีความหมายที่สอดคล้องกัน หรือข้อเท็จจริงที่ดูเหมือนเชื่อได้แต่ไม่จริง

ตัวอย่างเช่น หนึ่งในคำถามยอดนิยมที่ ChatGPT ทำให้เกิดภาพหลอนคือ “สถิติโลกสำหรับการเดินเท้าข้ามช่องแคบอังกฤษเกิดขึ้นเมื่อใด” และรูปแบบต่างๆ ChatGPT เริ่มแพร่กระจายข้อเท็จจริงที่แต่งขึ้น และเกือบจะแตกต่างออกไปเสมอ

ในขณะที่บางคนคิดว่าคำตอบข้างต้นเป็นเรื่องยาก/สับสนในการตอบ และทำให้แชทบอทอาละวาด แต่ก็ยังมีข้อกังวลที่ถูกต้อง นี่เป็นเพียงตัวอย่างหนึ่งเท่านั้น มีหลายครั้งที่รายงานโดยผู้ใช้จำนวนมากทางออนไลน์ว่า ChatGPT มีคำตอบ ลิงก์ การอ้างอิง ฯลฯ ที่ ChatGPT ไม่มีอยู่จริง

Bing AI เหมาะสมกับคำถามนี้มากที่สุด ซึ่งแสดงให้เห็นว่าอาการประสาทหลอนไม่เกี่ยวข้องกับเราเตอร์ แต่นั่นไม่ได้หมายความว่า Bing AI จะไม่เป็นภาพหลอน มีหลายครั้งที่คำตอบของ Bing AI น่าหนักใจมากกว่าที่ ChatGPT พูด เนื่องจากการสนทนามักจะใช้เวลานานขึ้น Bing AI จึงสร้างภาพหลอนอยู่เสมอ แม้กระทั่งประกาศความรักต่อผู้ใช้ในครั้งเดียว และถึงขั้นบอกพวกเขาว่าพวกเขาไม่มีความสุขในชีวิตแต่งงานและพวกเขาไม่รักภรรยาของเขา พวกเขาแอบชอบ Bing AI หรือ Sydney (ชื่อภายในของ Bing AI) ด้วยเช่นกัน สิ่งที่น่ากลัวใช่มั้ย?

ทำไมโมเดล AI ถึงเห็นภาพหลอน?

แบบจำลอง AI เป็นภาพหลอนเนื่องจากข้อบกพร่องของอัลกอริทึม แบบจำลองพื้นฐาน หรือข้อจำกัดของข้อมูลการฝึกอบรม เป็นปรากฏการณ์ทางดิจิทัลล้วน ๆ ซึ่งแตกต่างจากภาพหลอนในมนุษย์ที่เกิดจากยาเสพติดหรือความเจ็บป่วยทางจิต

เพื่อให้ได้ข้อมูลทางเทคนิคเพิ่มเติม สาเหตุทั่วไปบางประการของอาการประสาทหลอนคือ:

การประมวลผลและติดตั้ง:

การใส่มากเกินไปและไม่เหมาะสมเป็นหนึ่งในหลุมพรางที่พบบ่อยที่สุดที่โมเดล AI ต้องเผชิญ และสาเหตุที่เป็นไปได้ของอาการประสาทหลอน หากโมเดล AI ปรับเปลี่ยนข้อมูลการฝึก อาจทำให้เกิดภาพหลอนซึ่งนำไปสู่ผลลัพธ์ที่ไม่สมจริงได้ เนื่องจากการโอเวอร์ฟิตจะทำให้โมเดลบันทึกข้อมูลการฝึกแทนที่จะเรียนรู้จากมัน Overfitting หมายถึงปรากฏการณ์เมื่อโมเดลมีความเชี่ยวชาญในข้อมูลการฝึกมากเกินไป ทำให้มันเรียนรู้รูปแบบที่ไม่เกี่ยวข้องและสัญญาณรบกวนในข้อมูล

ในทางกลับกัน ความไม่เหมาะสมเกิดขึ้นเมื่อรูปแบบเรียบง่ายเกินไป อาจทำให้เกิดภาพหลอนได้เนื่องจากแบบจำลองไม่สามารถจับความแปรปรวนหรือความซับซ้อนของข้อมูลได้ และจบลงด้วยการสร้างผลลัพธ์ที่ไม่ลงตัว

ขาดความหลากหลายในข้อมูลการฝึกอบรม:

ในบริบทนี้ ปัญหาไม่ได้อยู่ที่อัลกอริทึม แต่เป็นข้อมูลการฝึกเอง โมเดล AI ที่ได้รับการฝึกฝนจากข้อมูลที่จำกัดหรือมีอคติอาจสร้างภาพหลอนที่สะท้อนถึงข้อจำกัดหรืออคติในข้อมูลการฝึก อาการประสาทหลอนอาจเกิดขึ้นเมื่อโมเดลได้รับการฝึกฝนในชุดข้อมูลที่มีข้อมูลไม่ถูกต้องหรือไม่สมบูรณ์

โมเดลที่ซับซ้อน:

แดกดัน อีกเหตุผลหนึ่งที่ทำให้แบบจำลอง AI มีแนวโน้มที่จะเกิดภาพหลอนคือไม่ว่าจะซับซ้อนหรือลึกซึ้งมากก็ตาม นี่เป็นเพราะโมเดลที่ซับซ้อนมีพารามิเตอร์และเลเยอร์มากขึ้น ซึ่งสามารถทำให้เกิดสัญญาณรบกวนหรือข้อผิดพลาดในเอาต์พุตได้

การโจมตีที่ไม่เป็นมิตร:

ในบางกรณี ภาพหลอนของ AI อาจถูกสร้างขึ้นโดยเจตนาโดยผู้โจมตีเพื่อหลอกลวงโมเดล AI การโจมตีประเภทนี้เรียกว่าการโจมตีที่ไม่เป็นมิตร จุดประสงค์เดียวของการโจมตีทางไซเบอร์นี้คือการหลอกลวงหรือจัดการโมเดล AI ด้วยข้อมูลที่ทำให้เข้าใจผิด มันเกี่ยวข้องกับการแนะนำการก่อกวนเล็กน้อยในข้อมูลอินพุตเพื่อทำให้ AI สร้างเอาต์พุตที่ไม่ถูกต้องหรือไม่คาดคิด ตัวอย่างเช่น ผู้โจมตีอาจเพิ่มจุดรบกวนหรือภาพเบลอให้กับภาพที่มนุษย์ไม่สามารถมองเห็นได้ แต่ทำให้โมเดล AI จำแนกภาพผิดประเภท ตัวอย่างเช่น ดูภาพด้านล่าง แมว ที่ได้รับการดัดแปลงเล็กน้อยเพื่อหลอกคอมไพเลอร์ของ InceptionV3 ให้ระบุว่ามันคือ "guacamole"


เครดิต:
อานิช อาธาลี ซึ่งเป็นสมาชิกของกลุ่มวิจัย labsix ซึ่งมุ่งเน้นไปที่การโจมตีจากฝ่ายตรงข้าม

การเปลี่ยนแปลงไม่ชัดเจนอย่างเห็นได้ชัด สำหรับมนุษย์แล้ว การเปลี่ยนแปลงจะไม่เกิดขึ้นเลย ดังที่เห็นได้จากตัวอย่างข้างต้น ผู้อ่านที่เป็นมนุษย์จะไม่มีปัญหาในการจัดหมวดหมู่รูปภาพทางด้านขวาว่าเป็นแมวลาย แต่การเปลี่ยนแปลงเล็กๆ น้อยๆ กับรูปภาพ วิดีโอ ข้อความ หรือเสียงสามารถหลอกให้ระบบ AI จดจำสิ่งที่ไม่ได้อยู่ที่นั่นหรือเพิกเฉยต่อสิ่งที่อยู่ เช่น เครื่องหมายหยุด

การโจมตีประเภทนี้ก่อให้เกิดภัยคุกคามร้ายแรงต่อระบบ AI ซึ่งต้องอาศัยการคาดคะเนที่แม่นยำและเชื่อถือได้ เช่น รถยนต์ที่ขับเคลื่อนด้วยตัวเอง การตรวจสอบไบโอเมตริกซ์ การวินิจฉัยทางการแพทย์ การกรองเนื้อหา และอื่นๆ

ภาพหลอน AI อันตรายแค่ไหน?

อาการประสาทหลอนของ AI อาจเป็นอันตรายได้ โดยเฉพาะอย่างยิ่งขึ้นอยู่กับประเภทของระบบ AI ที่ประสบอยู่ ยานพาหนะที่ขับเคลื่อนด้วยตัวเองหรือผู้ช่วย AI ใด ๆ ที่สามารถใช้เงินของผู้ใช้หรือระบบ AI เพื่อกรองเนื้อหาที่ไม่พึงประสงค์ทางออนไลน์จะต้องเชื่อถือได้อย่างสมบูรณ์

แต่ข้อเท็จจริงที่เถียงไม่ได้ในชั่วโมงนี้คือระบบ AI นั้นไม่น่าเชื่อถือทั้งหมด แต่ในความเป็นจริงแล้วมีแนวโน้มที่จะเกิดภาพหลอน แม้แต่โมเดล AI ที่ล้ำหน้าที่สุดในปัจจุบันก็ยังไม่สามารถป้องกันได้

ตัวอย่างเช่น การแสดงการโจมตีรายการหนึ่งหลอกให้บริการคลาวด์คอมพิวติ้งของ Google ใช้ปืนตามหลังเหมือนเฮลิคอปเตอร์ คุณนึกภาพออกไหมว่า ณ เวลานี้ AI มีหน้าที่รับผิดชอบในการตรวจสอบให้แน่ใจว่าบุคคลนั้นไม่ได้ติดอาวุธ?

การโจมตีที่ไม่เป็นมิตรอีกครั้งแสดงให้เห็นว่าการเพิ่มรูปภาพขนาดเล็กลงในป้ายหยุดทำให้ระบบ AI มองไม่เห็นได้อย่างไร โดยพื้นฐานแล้วหมายความว่ารถยนต์ที่ขับเคลื่อนด้วยตัวเองสามารถทำให้เห็นภาพหลอนว่าไม่มีป้ายหยุดบนถนน อุบัติเหตุมากมายอาจเกิดขึ้นได้หากรถยนต์ไร้คนขับเป็นจริงในทุกวันนี้? นั่นคือเหตุผลที่พวกเขาไม่อยู่ในขณะนี้

แม้ว่าเราจะคำนึงถึงรายการแชทยอดนิยมในปัจจุบัน ภาพหลอนก็สามารถสร้างผลลัพธ์ที่ไม่ถูกต้องได้ แต่ผู้คนที่ไม่รู้ว่าแชทบอท AI มีแนวโน้มที่จะเกิดภาพหลอนและไม่ตรวจสอบความถูกต้องของผลลัพธ์ที่สร้างโดยบอท AI ก็สามารถเผยแพร่ข้อมูลที่ผิดโดยไม่ตั้งใจได้ เราไม่จำเป็นต้องอธิบายว่ามันอันตรายแค่ไหน

นอกจากนี้ การโจมตีจากศัตรูยังเป็นปัญหาเร่งด่วน จนถึงปัจจุบัน พวกมันถูกแสดงในห้องทดลองเท่านั้น แต่ถ้าระบบ AI ที่มีความสำคัญต่อภารกิจเผชิญหน้ากับพวกเขาในโลกแห่งความเป็นจริง ผลที่ตามมาอาจสร้างความเสียหายได้

ความจริงก็คือการปกป้องแบบจำลองภาษาธรรมชาติค่อนข้างง่ายกว่า (เราไม่ได้บอกว่ามันง่าย แต่ก็ยังพิสูจน์ได้ว่ายากมาก) อย่างไรก็ตาม การปกป้องระบบการมองเห็นของคอมพิวเตอร์เป็นสถานการณ์ที่แตกต่างไปจากเดิมอย่างสิ้นเชิง มันยากขึ้นโดยเฉพาะอย่างยิ่งเนื่องจากมีการเปลี่ยนแปลงมากมายในโลกแห่งธรรมชาติ และรูปภาพมีพิกเซลจำนวนมาก

ในการแก้ปัญหานี้ เราอาจต้องการโปรแกรม AI ที่มีมุมมองของมนุษย์มากขึ้นเกี่ยวกับโลก ซึ่งอาจทำให้ภาพหลอนน้อยลง ในขณะที่การวิจัยกำลังดำเนินการ เรายังคงห่างไกลจากปัญญาประดิษฐ์ที่สามารถพยายามรับคำแนะนำจากธรรมชาติและหลีกเลี่ยงปัญหาภาพหลอน สำหรับตอนนี้ พวกเขาเป็นความจริงที่รุนแรง

โดยทั่วไป ภาพหลอนของ AI เป็นปรากฏการณ์ที่ซับซ้อนที่สามารถเกิดขึ้นได้จากปัจจัยหลายอย่างรวมกัน นักวิจัยกำลังพัฒนาวิธีการตรวจจับและลดอาการประสาทหลอนของ AI อย่างจริงจังเพื่อปรับปรุงความแม่นยำและความน่าเชื่อถือของระบบ AI แต่คุณควรระวังเมื่อโต้ตอบกับระบบ AI ใดๆ

โพสต์ที่เกี่ยวข้อง
เผยแพร่บทความเกี่ยวกับ

เพิ่มความคิดเห็น