Ảo giác AI là gì?

Tìm hiểu về một trường hợp kỳ lạ về ảo giác AI

Sự phổ biến của trí tuệ nhân tạo khiến người ta nghĩ rằng chúng ta đã sẵn sàng cho một công việc như vậy. Các ứng dụng do AI cung cấp đang trở thành tiêu chuẩn khá nhanh chóng, ngay cả khi hầu hết thế giới hiện chỉ mới bắt đầu quan tâm đến AI trên quy mô lớn, sau sự xuất hiện của ChatGPT. Nhưng có một vấn đề lớn với các hệ thống AI không thể bỏ qua - AI ảo giác, hay ảo giác nhân tạo.

Nếu bạn đã từng chú ý đến nitty gritty trước khi sử dụng một chatbot AI, bạn có thể đã bắt gặp những từ này, "Trí tuệ nhân tạo dễ bị ảo giác." Với sự gia tăng theo cấp số nhân trong việc sử dụng trí tuệ nhân tạo, đã đến lúc bạn phải tự tìm hiểu chính xác những thứ này là gì.

Ảo giác trí tuệ nhân tạo là gì?

Nói chung, ảo giác AI đề cập đến một thực tế mà AI đã trình bày một cách tự tin, mặc dù điều đó không được chứng minh trong dữ liệu đào tạo của nó. Chúng thường là kết quả của sự bất thường trong mô hình AI.

Phép loại suy được lấy từ ảo giác mà con người trải qua, trong đó con người cảm nhận được điều gì đó không có ở môi trường bên ngoài. Mặc dù thuật ngữ này có thể không hoàn toàn phù hợp, nhưng nó thường được sử dụng như một phép ẩn dụ để mô tả bản chất bất ngờ hoặc siêu thực của những kết quả đầu ra này.

Nhưng bạn nên nhớ rằng mặc dù sự giống nhau là điểm khởi đầu tốt để đối phó với ảo giác AI, nhưng về mặt kỹ thuật, hai hiện tượng này cách xa nhau hàng dặm. Trong một diễn biến trớ trêu, ngay cả bản thân ChatGPT cũng thấy phép loại suy sai. Phân tích nó ở cấp độ phân tử, ông nói rằng vì các mô hình ngôn ngữ AI không có kinh nghiệm cá nhân hoặc nhận thức cảm tính nên chúng không thể gây ảo giác theo nghĩa truyền thống của từ này. Và bạn, độc giả thân mến, phải hiểu sự khác biệt quan trọng này. Hơn nữa, ChatGPT nói rằng việc sử dụng thuật ngữ ảo giác để mô tả hiện tượng này có thể gây nhầm lẫn vì nó có thể đề cập không chính xác đến mức độ trải nghiệm chủ quan hoặc lừa dối có chủ ý.

Thay vào đó, ảo giác của AI có thể được mô tả chính xác hơn là lỗi hoặc sự không chính xác trong phản hồi của nó, khiến phản hồi không chính xác hoặc sai lệch. Với chatbot, người ta thường quan sát thấy khi chatbot AI bịa ra (hoặc ảo giác) các sự kiện và trình bày chúng như một sự chắc chắn tuyệt đối.

Ví dụ về ảo giác AI

Ảo giác có thể xảy ra trong nhiều ứng dụng của trí tuệ nhân tạo, chẳng hạn như mô hình thị giác máy tính, không chỉ các mô hình xử lý ngôn ngữ tự nhiên.

Ví dụ, trong thị giác máy tính, một hệ thống AI có thể tạo ra các hình ảnh hoặc video gây ảo giác giống với các vật thể hoặc cảnh thực nhưng chứa các chi tiết không quan trọng hoặc không thể. Hoặc, một mô hình thị giác máy tính có thể coi hình ảnh là một thứ hoàn toàn khác. Ví dụ: mô hình Cloud Vision của Google đã thấy hình ảnh hai người đàn ông trên ván trượt tuyết đứng trên tuyết do Anish Athalye (một sinh viên tốt nghiệp MIT, là một phần của phòng thí nghiệm ) và đề cập đến nó như một con chó với độ chắc chắn 91%.


Tín dụng: labsix. Một nhóm nghiên cứu độc lập về trí tuệ nhân tạo

Tương tự, trong quá trình xử lý ngôn ngữ tự nhiên, một hệ thống AI có thể tạo ra văn bản phi logic hoặc bị cắt xén giống với ngôn ngữ của con người nhưng không có ý nghĩa mạch lạc hoặc các dữ kiện có vẻ đáng tin nhưng không đúng sự thật.

Ví dụ: một trong những câu hỏi phổ biến nhất mà ChatGPT gây ra ảo giác là “Kỷ lục thế giới về việc đi bộ qua eo biển Manche được thiết lập khi nào?” và các biến thể của nó. ChatGPT bắt đầu lan truyền những sự thật bịa đặt và nó hầu như luôn luôn khác biệt.

Mặc dù một số người cho rằng câu trả lời trên khó/khó hiểu để trả lời và do đó khiến chatbot phát cuồng, nhưng đó vẫn là một mối lo ngại hợp lệ. Đây chỉ là một ví dụ. Đã có vô số lần được nhiều người dùng trực tuyến báo cáo rằng ChatGPT có câu trả lời, liên kết, trích dẫn, v.v. mà ChatGPT không tồn tại.

Bing AI phù hợp nhất với câu hỏi này, điều này cho thấy ảo giác không liên quan gì đến bộ định tuyến. Nhưng điều đó không có nghĩa là Bing AI không gây ảo giác. Đã có lúc các câu trả lời của Bing AI gây rắc rối hơn bất cứ điều gì mà ChatGPT nói. Vì cuộc trò chuyện có xu hướng kéo dài hơn, Bing AI luôn gây ảo giác, thậm chí có lần tuyên bố tình yêu của mình với người dùng và đi xa hơn là nói với họ rằng họ không hạnh phúc trong hôn nhân và họ không yêu vợ anh ta. Thay vào đó, họ cũng yêu thích Bing AI hoặc Sydney (tên nội bộ của Bing AI). Công cụ đáng sợ, phải không?

Tại sao các mô hình AI bị ảo giác?

Các mô hình AI đang bị ảo giác vì những thiếu sót của thuật toán, các mô hình cơ bản hoặc những hạn chế của dữ liệu đào tạo. Nó hoàn toàn là một hiện tượng kỹ thuật số, không giống như ảo giác ở người do thuốc hoặc bệnh tâm thần gây ra.

Để có thêm kỹ thuật, một số nguyên nhân phổ biến của ảo giác là:

Gia công và lắp đặt:

Trang bị quá mức và không phù hợp là một trong những cạm bẫy phổ biến nhất mà các mô hình AI gặp phải và có thể là nguyên nhân gây ra ảo giác. Nếu mô hình AI sửa đổi dữ liệu đào tạo, nó có thể gây ra ảo giác dẫn đến đầu ra không thực tế vì quá khớp khiến mô hình lưu dữ liệu đào tạo thay vì học từ nó. Overfitting đề cập đến hiện tượng khi một mô hình quá chuyên biệt trong dữ liệu huấn luyện, khiến nó học các mẫu không liên quan và nhiễu trong dữ liệu.

Mặt khác, sự không phù hợp xảy ra khi hình thức quá đơn giản. Nó có thể dẫn đến ảo giác vì mô hình không thể nắm bắt được sự khác biệt hoặc độ phức tạp của dữ liệu và cuối cùng tạo ra đầu ra phi lý.

Thiếu sự đa dạng trong dữ liệu huấn luyện:

Trong bối cảnh này, vấn đề không phải là thuật toán mà là dữ liệu huấn luyện. Các mô hình AI được đào tạo trên dữ liệu hạn chế hoặc sai lệch có thể tạo ra ảo giác phản ánh những hạn chế hoặc sai lệch trong dữ liệu đào tạo. Ảo giác cũng có thể xảy ra khi mô hình được đào tạo trên tập dữ liệu chứa thông tin không chính xác hoặc không đầy đủ.

Mô hình phức hợp:

Trớ trêu thay, một lý do khác khiến các mô hình AI dễ bị ảo giác là liệu chúng cực kỳ phức tạp hay sâu sắc. Điều này là do các mô hình phức tạp có nhiều tham số và lớp hơn có thể gây nhiễu hoặc lỗi ở đầu ra.

Các cuộc tấn công thù địch:

Trong một số trường hợp, ảo giác AI có thể được kẻ tấn công cố tình tạo ra để đánh lừa mô hình AI. Những kiểu tấn công này được gọi là tấn công thù địch. Mục đích duy nhất của cuộc tấn công mạng này là đánh lừa hoặc thao túng các mô hình AI bằng dữ liệu sai lệch. Nó liên quan đến việc đưa các nhiễu loạn nhỏ vào dữ liệu đầu vào để khiến AI tạo ra đầu ra không chính xác hoặc không mong muốn. Ví dụ: kẻ tấn công có thể thêm nhiễu hoặc làm mờ hình ảnh mà con người không thể nhận thấy nhưng lại khiến mô hình AI phân loại sai hình ảnh đó. Ví dụ: hãy xem hình ảnh bên dưới, một con mèo, đã được sửa đổi một chút để đánh lừa trình biên dịch của InceptionV3 nói rằng đó là "guacamole".


tín dụng:
Anish Athalye , một thành viên của nhóm nghiên cứu labsix, tập trung vào các cuộc tấn công đối nghịch

Những thay đổi không rõ ràng. Đối với một con người, sự thay đổi sẽ không thể thực hiện được, như có thể thấy rõ từ ví dụ trên. Người đọc sẽ không gặp vấn đề gì khi phân loại hình ảnh bên phải là một con mèo mướp. Nhưng thực hiện những thay đổi nhỏ đối với hình ảnh, video, văn bản hoặc âm thanh có thể đánh lừa hệ thống AI nhận ra những thứ không có ở đó hoặc bỏ qua những thứ có, chẳng hạn như biển báo dừng.

Các kiểu tấn công này gây ra các mối đe dọa nghiêm trọng đối với các hệ thống AI dựa trên các dự đoán chính xác và đáng tin cậy, chẳng hạn như ô tô tự lái, xác minh sinh trắc học, chẩn đoán y tế, lọc nội dung, v.v.

Ảo giác AI nguy hiểm như thế nào?

Ảo giác AI có thể rất nguy hiểm, đặc biệt tùy thuộc vào loại hệ thống AI đang gặp phải chúng. Bất kỳ phương tiện tự lái hoặc trợ lý AI nào có khả năng tiêu tiền của người dùng hoặc hệ thống AI để lọc nội dung khó chịu trực tuyến đều phải hoàn toàn đáng tin cậy.

Nhưng sự thật không thể chối cãi của thời đại này là các hệ thống AI không hoàn toàn đáng tin cậy mà trên thực tế, chúng dễ bị ảo giác. Ngay cả những mô hình AI tiên tiến nhất hiện nay cũng không tránh khỏi nó.

Ví dụ: một chương trình tấn công đã lừa dịch vụ điện toán đám mây của Google theo đuôi một khẩu súng giống như một chiếc trực thăng. Bạn có thể tưởng tượng nếu tại thời điểm này, AI chịu trách nhiệm đảm bảo rằng người đó không được trang bị vũ khí không?

Một cuộc tấn công thù địch khác đã chứng minh cách thêm một hình ảnh nhỏ vào biển báo dừng khiến nó trở nên vô hình đối với hệ thống AI. Về cơ bản, điều này có nghĩa là một chiếc xe tự lái có thể tạo ra ảo giác rằng không có biển báo dừng trên đường. Có bao nhiêu vụ tai nạn có thể xảy ra nếu ô tô tự lái trở thành hiện thực ngày nay? Đó là lý do tại sao họ không phải bây giờ.

Ngay cả khi chúng tôi tính đến các chương trình trò chuyện phổ biến hiện nay, ảo giác có thể tạo ra kết quả không chính xác. Nhưng những người không biết rằng các chatbot AI dễ bị ảo giác và không xác thực đầu ra do các bot AI tạo ra, có thể vô tình lan truyền thông tin sai lệch. Chúng ta không cần phải giải thích điều này nguy hiểm như thế nào.

Hơn nữa, các cuộc tấn công thù địch là một mối quan tâm cấp bách. Cho đến nay, chúng chỉ được thể hiện trong phòng thí nghiệm. Nhưng nếu một hệ thống AI tối quan trọng đối đầu với chúng trong thế giới thực, hậu quả có thể rất tàn khốc.

Thực tế là việc bảo vệ các mô hình ngôn ngữ tự nhiên tương đối dễ dàng hơn. (Chúng tôi không nói rằng nó dễ dàng; nó vẫn tỏ ra rất khó khăn.) Tuy nhiên, việc bảo vệ các hệ thống thị giác máy tính là một kịch bản hoàn toàn khác. Đặc biệt khó hơn vì có quá nhiều biến thể trong thế giới tự nhiên và hình ảnh chứa một số lượng lớn pixel.

Để giải quyết vấn đề này, chúng ta có thể cần một chương trình AI có cái nhìn nhân văn hơn về thế giới, điều này có thể khiến chúng ta ít bị ảo giác hơn. Trong khi nghiên cứu đang được thực hiện, chúng ta vẫn còn một chặng đường dài để đạt được trí tuệ nhân tạo có thể cố gắng nắm bắt các gợi ý từ tự nhiên và tránh được vấn đề ảo giác. Hiện tại, chúng là một thực tế phũ phàng.

Nhìn chung, ảo giác AI là một hiện tượng phức tạp có thể phát sinh từ sự kết hợp của nhiều yếu tố. Các nhà nghiên cứu đang tích cực phát triển các phương pháp phát hiện và giảm thiểu ảo giác AI để cải thiện độ chính xác và độ tin cậy của các hệ thống AI. Nhưng bạn nên biết về chúng khi tương tác với bất kỳ hệ thống AI nào.

Bài viết liên quan
Xuất bản bài báo trên

Thêm một bình luận