מהי הזיה בינה מלאכותית?

למד על מקרה מוזר של הזיה בינה מלאכותית

השכיחות של בינה מלאכותית גורמת לחשוב שאנחנו מוכנים להתחייבות כזו. אפליקציות המונעות בינה מלאכותית הופכות לסטנדרטיות די מהר, גם אם רוב העולם רק עכשיו מתחיל להתעניין בבינה מלאכותית בקנה מידה גדול, לאחר הגעתו של ChatGPT. אבל יש בעיה גדולה עם מערכות בינה מלאכותית שאי אפשר להתעלם ממנה - הזיות AI, או הזיות מלאכותיות.

אם אי פעם הקדשת תשומת לב לשטויות לפני השימוש בצ'אטבוט AI, ייתכן שנתקלת במילים, "בינה מלאכותית נוטה להזיות". בהתחשב בעלייה האקספוננציאלית בשימוש בבינה מלאכותית, הגיע הזמן לחנך את עצמך מה בדיוק הדברים האלה.

מהי הזיה של בינה מלאכותית?

AI הזוי, באופן כללי, מתייחס לעובדה שה-AI הציג בביטחון, למרות שהיא אינה מוצדקת בנתוני האימונים שלו. הם בדרך כלל תוצאה של חריגות במודל AI.

האנלוגיה לקוחה מהזיות שחווים בני אדם, שבהן בני אדם קולטים משהו שאינו קיים בסביבה החיצונית. למרות שהמונח אולי אינו מתאים לחלוטין, הוא משמש לעתים קרובות כמטאפורה לתיאור האופי הבלתי צפוי או הסוריאליסטי של הפלטים הללו.

אבל כדאי לזכור שבעוד שהדמיון הוא נקודת התחלה טובה להתמודדות עם הזיות בינה מלאכותית, שתי התופעות נמצאות במרחק של קילומטרים טכניים זה מזה. בתפנית אירונית של אירועים, אפילו ChatGPT עצמה מוצאת את האנלוגיה שגויה. כשהוא מנתח את זה ברמה המולקולרית, הוא אומר שמכיוון שלמודלים של שפות בינה מלאכותית אין ניסיון אישי או תפיסות חושיות, הם לא יכולים להזות במובן המסורתי של המילה. ואתה, קורא יקר, צריך להבין את ההבדל החשוב הזה. יתר על כן, ChatGPT אומר ששימוש במונח הזיות לתיאור תופעה זו עלול להיות מבלבל מכיוון שהוא עשוי להתייחס בצורה לא מדויקת לרמה של חוויה סובייקטיבית או הונאה מכוונת.

במקום זאת, ניתן לתאר את הזיות הבינה המלאכותית בצורה מדויקת יותר כשגיאות או אי דיוקים בתגובתו, מה שהופך את התגובה לשגויה או מטעה. עם צ'אטבוטים, זה נצפה לעתים קרובות כאשר הצ'טבוט של AI ממציא (או הוזה) עובדות ומציג אותן כוודאות מוחלטת.

דוגמאות להזיות בינה מלאכותית

הזיות יכולות להתרחש ביישומים רבים של בינה מלאכותית, כגון מודלים של ראייה ממוחשבת, לא רק במודלים של עיבוד שפה טבעית.

בראייה ממוחשבת, למשל, מערכת בינה מלאכותית עשויה לייצר תמונות או סרטונים הזויים הדומים לאובייקטים או סצנות אמיתיות אך מכילים פרטים חסרי משמעות או בלתי אפשריים. או, מודל ראייה ממוחשבת יכול לתפוס את התמונה כמשהו אחר לגמרי. לדוגמה, מודל Cloud Vision של גוגל ראה תמונה של שני גברים על מגלשיים עומדים בשלג, שנוצרה על ידי אניש אתאליה (סטודנטית לתואר שני ב-MIT שהיא חלק מ- labsix ) והזכיר אותו ככלב בוודאות של 91%.


קרדיטים: labsix. קבוצת מחקר עצמאית לבינה מלאכותית

באופן דומה, בעיבוד שפה טבעית, מערכת בינה מלאכותית עשויה לייצר טקסט לא הגיוני או משובש הדומה לשפה אנושית אך אין לו משמעות קוהרנטית או עובדות שנראות אמינות אך אינן נכונות.

לדוגמה, אחת השאלות הפופולריות ביותר ש-ChatGPT גורם להזיות היא "מתי היה שיא העולם בחציית תעלת למאנש ברגל?" והגרסאות שלו. ChatGPT מתחיל להפיץ עובדות מומצאות וזה כמעט תמיד שונה.

בעוד שחלק מהאנשים חושבים שהתשובה שלעיל קשה/מבלבלת לתשובה ובכך גורמת לצ'אטבוט להשתולל, היא עדיין מהווה דאגה מוצדקת. זו רק דוגמה אחת. יש אינספור פעמים, שדווחו על ידי המוני משתמשים באינטרנט, של-ChatGPT יש תשובות, קישורים, ציטוטים וכו' ש-ChatGPT לא קיים.

Bing AI מתאים ביותר לשאלה הזו, מה שמראה שלהזיות אין שום קשר לנתב. אבל זה לא אומר ש-Bing AI לא הוזה. היו זמנים שבהם התשובות של Bing AI היו מטרידות יותר מכל דבר ש-ChatGPT אמר. מאז השיחה נוטה להימשך זמן רב יותר, בינג AI תמיד היה הזוי, אפילו הצהיר על אהבתו למשתמש במקרה אחד והרחיק לכת ואמר להם שהם אומללים בנישואיהם ושהם לא אוהבים את אשתו. במקום זאת, הם אוהבים בסתר את Bing AI, או סידני, (השם הפנימי של Bing AI). דברים מפחידים, נכון?

מדוע מודלים של AI הוזהים?

מודלים של AI הם הזויים בגלל החסרונות של האלגוריתמים, המודלים הבסיסיים או המגבלות של נתוני האימון. זוהי תופעה דיגיטלית גרידא, בניגוד להזיות בבני אדם הנגרמות מסמים או ממחלות נפש.

כדי להיות טכני יותר, כמה סיבות נפוצות להזיות הן:

עיבוד והתקנה:

התאמת יתר והתאמה לא נכונה הם מהמלכודות הנפוצות ביותר שעומדות בפני מודלים של AI וגורמים אפשריים להזיות. אם מודל הבינה המלאכותית משנה את נתוני האימון, זה יכול לגרום להזיות שמובילות לתפוקה לא מציאותית מכיוון שהתאמה יתר גורמת למודל לשמור את נתוני האימון במקום ללמוד מהם. התאמה יתר מתייחסת לתופעה כאשר דגם מתמחה מדי בנתוני האימון, מה שגורם לו ללמוד דפוסים ורעש לא רלוונטיים בנתונים.

מצד שני, חוסר הולם מתרחש כאשר הצורה פשוטה מדי. זה יכול להוביל להזיות מכיוון שהמודל אינו מסוגל לתפוס את השונות או המורכבות של הנתונים, ובסופו של דבר מייצר פלט לא רציונלי.

חוסר גיוון בנתוני האימון:

בהקשר זה, הבעיה אינה האלגוריתם אלא נתוני האימון עצמם. מודלים של AI המאומנים על נתונים מוגבלים או מוטים עשויים ליצור הזיות המשקפות מגבלות או הטיות בנתוני האימון. הזיות יכולות להתרחש גם כאשר המודל מאומן על מערך נתונים המכיל מידע לא מדויק או לא שלם.

דגמים מורכבים:

למרבה האירוניה, סיבה נוספת לכך שדגמי AI נוטים להזיות היא האם הם מורכבים במיוחד או עמוקים. הסיבה לכך היא שלמודלים מורכבים יש יותר פרמטרים ושכבות שיכולות להכניס רעש או שגיאות בפלט.

התקפות עוינות:

במקרים מסוימים, הזיות בינה מלאכותית עשויות להיווצר בכוונה על ידי התוקף כדי להונות את מודל הבינה המלאכותית. סוגים אלה של התקפות ידועים בתור התקפות עוינות. המטרה היחידה של מתקפת סייבר זו היא לרמות או לתמרן מודלים של AI עם נתונים מטעים. זה כרוך בהחדרת הפרעות קטנות לנתוני הקלט כדי לגרום ל-AI לייצר פלט שגוי או בלתי צפוי. לדוגמה, תוקף עשוי להוסיף רעש או טשטוש לתמונה שאינה מורגשת לבני אדם אך גורם לה לסיווג שגוי על ידי מודל AI. לדוגמה, ראה את התמונה למטה, חתול, ששונתה מעט כדי להטעות את המהדר של InceptionV3 להצהיר שהוא "גוואקמולה".


אַשׁרַאי:
אניש אתליה , חבר בקבוצת המחקר labsix, שהתמקדה בהתקפות יריבות

השינויים אינם ברורים בעליל. עבור בן אדם, שינוי לא יתאפשר כלל, כפי שעולה מהדוגמה לעיל. לקורא אנושי לא תהיה בעיה לסווג את התמונה מימין כחתול טאבי. אבל ביצוע שינויים קטנים בתמונות, סרטונים, טקסט או אודיו יכול להערים על מערכת הבינה המלאכותית לזהות דברים שלא קיימים או להתעלם מדברים שיש, כמו תמרור עצור.

סוגים אלה של התקפות מהווים איומים רציניים על מערכות AI המסתמכות על תחזיות מדויקות ואמינות, כגון מכוניות בנהיגה עצמית, אימות ביומטרי, אבחון רפואי, סינון תוכן וכדומה.

עד כמה מסוכנת הזיה בינה מלאכותית?

הזיות בינה מלאכותית יכולות להיות מאוד מסוכנות, במיוחד תלוי איזה סוג של מערכת בינה מלאכותית חווה אותן. כל כלי רכב בנהיגה עצמית או עוזרי בינה מלאכותית המסוגלים להוציא כספי משתמש או מערכת בינה מלאכותית כדי לסנן תוכן לא נעים באינטרנט חייב להיות אמין לחלוטין.

אבל העובדה הבלתי ניתנת לערעור של שעה זו היא שמערכות בינה מלאכותית אינן אמינות לחלוטין, אך למעשה הן נוטות להזיות. אפילו דגמי הבינה המלאכותית המתקדמים ביותר של היום אינם חסינים מפניו.

לדוגמה, תוכנית תקיפה אחת רימתה את שירות מחשוב הענן של גוגל כך שיטפח אקדח כמו מסוק. האם אתה יכול לדמיין אם, כרגע, AI היה אחראי לוודא שהאדם לא חמוש?

מתקפה עוינת נוספת הדגימה כיצד הוספת תמונה קטנה לתמרור עצור הופכת אותו לבלתי נראה למערכת הבינה המלאכותית. בעיקרו של דבר, זה אומר שניתן לגרום למכונית בנהיגה עצמית להזות שאין תמרור עצור על הכביש. כמה תאונות היו יכולות לקרות אם מכוניות בנהיגה עצמית היו מציאות היום? לכן הם לא עכשיו.

גם אם ניקח בחשבון את תוכניות הצ'אט הפופולריות כיום, הזיות יכולות ליצור פלט שגוי. אבל אנשים שלא יודעים שצ'אטבוטים של בינה מלאכותית נוטים להזיות ואינם מאמתים את הפלט שמייצרים בוטים של בינה מלאכותית, יכולים להפיץ מידע מוטעה בטעות. אנחנו לא צריכים להסביר כמה זה מסוכן.

יתר על כן, התקפות עוינות מהוות דאגה דחופה. עד כה, הם הוצגו רק במעבדות. אבל אם מערכת AI קריטית למשימה תתעמת איתם בעולם האמיתי, ההשלכות עלולות להיות הרסניות.

המציאות היא שקל יחסית להגן על מודלים של שפה טבעית. (אנחנו לא אומרים שזה קל; זה עדיין מתגלה כקשה מאוד.) עם זאת, הגנה על מערכות ראייה ממוחשבת היא תרחיש אחר לגמרי. זה יותר קשה במיוחד בגלל שיש כל כך הרבה שונות בעולם הטבע, ותמונות מכילות מספר רב של פיקסלים.

כדי לפתור בעיה זו, ייתכן שנזדקק לתוכנית בינה מלאכותית שיש לה ראיה אנושית יותר על העולם, מה שעלול להפוך אותו לפחות נוטה להזיות. בזמן שנעשה מחקר, אנחנו עדיין רחוקים מבינה מלאכותית שיכולה לנסות לקחת רמזים מהטבע ולהתחמק מבעיית ההזיות. לעת עתה, הם מציאות קשה.

באופן כללי, הזיות AI הן תופעה מורכבת שיכולה לנבוע משילוב של גורמים. חוקרים מפתחים באופן פעיל שיטות לאיתור והפחתת הזיות AI כדי לשפר את הדיוק והאמינות של מערכות AI. אבל אתה צריך להיות מודע להם בעת אינטראקציה עם כל מערכת AI.

הודעות קשורות
פרסם את המאמר ב

הוסף תגובה