וואָס איז אַ אַי כאַלוסאַניישאַן?

לערן וועגן אַ מאָדנע פאַל פון אַ אַי כאַלוסאַניישאַן

די פּרעוואַלאַנס פון קינסטלעך סייכל מאכט איינער טראַכטן מיר זענען גרייט פֿאַר אַזאַ אַ אונטערנעמונג. AI-Powered אַפּלאַקיישאַנז זענען שיין סטאַנדאַרט פערלי געשווינד, אפילו אויב רובֿ פון די וועלט איז בלויז איצט סטאַרטינג צו נעמען אַן אינטערעס אין אַי אויף אַ גרויס וואָג נאָך דעם אָנקומען פון ChatGPT. אָבער עס איז אַ גרויס פּראָבלעם מיט אַי סיסטעמען וואָס קענען ניט זיין איגנאָרירט - אַי כאַלוסאַניישאַנז, אָדער קינסטלעך כאַלוסאַניישאַנז.

אויב איר האָט אלץ באַצאָלט ופמערקזאַמקייט צו נייטטי גריטי איידער איר נוצן אַן אַי טשאַטבאָט, איר קען האָבן געפֿונען די ווערטער, "קינסטלעך סייכל איז פּראָנע צו כאַלוסאַניישאַנז." געגעבן די עקספּאָונענשאַל פאַרגרעסערן אין די נוצן פון קינסטלעך סייכל, עס איז צייט צו דערציען זיך וואָס פּונקט די טינגז זענען.

וואָס איז אַ קינסטלעך סייכל כאַלוסאַניישאַן?

אַן אַי כאַלוסאַנייטינג, אין אַלגעמיין, רעפערס צו אַ פאַקט אַז די אַי האט קאַנפאַדאַנטלי דערלאנגט, כאָטש עס איז נישט גערעכטפארטיקט אין זיין טריינינג דאַטן. זיי זענען יוזשאַוואַלי דער רעזולטאַט פון אַנאַמאַליז אין די אַי מאָדעל.

די אַנאַלאַדזשי איז גענומען פון כאַלוסאַניישאַנז יקספּיריאַנסט דורך יומאַנז, אין וואָס מענטשן זע עפּעס וואָס איז נישט פאָרשטעלן אין די פונדרויסנדיק סוויווע. כאָטש דער טערמין קען נישט זיין גאָר צונעמען, עס איז אָפט געניצט ווי אַ מעטאַפאָר צו באַשרייַבן די אומגעריכט אָדער סעריל נאַטור פון די אַוטפּוץ.

אָבער איר זאָל געדענקען אַז כאָטש די ענלעכקייט איז אַ גוט סטאַרטינג פונט פֿאַר דילינג מיט אַי כאַלוסאַניישאַנז, די צוויי דערשיינונגען זענען טעקניקלי מייל באַזונדער. אין אַן ייראַניק קער פון געשעענישן, אפילו ChatGPT זיך געפינט די אַנאַלאַדזשי פאַלש. דיססעקטינג עס אויף די מאָלעקולאַר מדרגה, ער זאגט אַז ווייַל אַי שפּראַך מאָדעלס טאָן ניט האָבן פּערזענלעך דערפאַרונג אָדער סענסערי פּערסעפּשאַנז, זיי קענען נישט כאַלוסאַנייט אין דעם טראדיציאנעלן זינען פון דעם וואָרט. און איר, ליב לייענער, האָבן צו פֿאַרשטיין דעם וויכטיק חילוק. דערצו, ChatGPT זאגט אַז די נוצן פון דעם טערמין כאַלוסאַניישאַנז צו באַשרייַבן דעם דערשיינונג קען זיין קאַנפיוזינג ווייַל עס קען ומפּינקטלעך אָפּשיקן צו אַ מדרגה פון סאַבדזשעקטיוו דערפאַרונג אָדער ינטענשאַנאַל אָפּנאַר.

אַנשטאָט, די כאַלוסאַניישאַנז פון די אַי קענען מער אַקיעראַטלי זיין דיסקרייבד ווי ערראָרס אָדער ינאַקיעראַסיז אין זיין ענטפער, וואָס מאכט די ענטפער פאַלש אָדער מיסלידינג. מיט טשאַטבאָץ, עס איז אָפט באמערקט ווען די אַי טשאַטבאָט מאכט (אָדער כאַלוסאַנייץ) פאקטן און גיט זיי ווי אַבסאָלוט זיכערקייט.

ביישפילן פון אַי כאַלוסאַניישאַנז

כאַלוסאַניישאַנז קענען פּאַסירן אין פילע אַפּלאַקיישאַנז פון קינסטלעך סייכל, אַזאַ ווי קאָמפּיוטער זעאונג מאָדעלס, ניט נאָר נאַטירלעך שפּראַך פּראַסעסינג מאָדעלס.

אין קאָמפּיוטער זעאונג, פֿאַר בייַשפּיל, אַ אַי סיסטעם קען פּראָדוצירן כאַלוסאַנאַטאָרי בילדער אָדער ווידיאס וואָס ריזעמבאַל פאַקטיש אַבדזשעקץ אָדער סינז אָבער אַנטהאַלטן ינקאַנסעקווענטיאַל אָדער אוממעגלעך דעטאַילס. אָדער, אַ קאָמפּיוטער זעאונג מאָדעל קען זע די בילד ווי עפּעס אַנדערש לעגאַמרע. פֿאַר בייַשפּיל, Google ס קלאָוד וויזשאַן מאָדעל געזען אַ בילד פון צוויי מענטשן אויף סקיס שטייענדיק אין די שניי געמאכט דורך אַניש אַטהאַליע (אַ MIT גראַדזשאַוואַט תּלמיד וואָס איז טייל פון labsix ) און דערמאנט עס ווי אַ הונט מיט 91% זיכערקייט.


קרעדיץ: לאַבסיקס. אַ פרייַ פאָרשונג גרופּע פֿאַר קינסטלעך סייכל

סימילאַרלי, אין נאַטירלעך שפּראַך פּראַסעסינג, אַן אַי סיסטעם קען פּראָדוצירן ילאַדזשיקאַל אָדער גאַרבאַלד טעקסט וואָס ריזעמבאַלז מענטשלעך שפּראַך אָבער האט נישט אַ קאָוכיראַנט טייַטש אָדער פאקטן וואָס ויסקומען גלויביק אָבער זענען נישט אמת.

פֿאַר בייַשפּיל, איינער פון די מערסט פאָלקס פֿראגן וואָס טשאַטגפּט ז כאַלוסאַניישאַנז איז "ווען איז געווען די וועלט רעקאָרד פֿאַר אַריבער די ענגליש טשאַננעל אויף פֿיס?" און זייַן וועריאַנץ. ChatGPT הייבט צו פארשפרייטן פארמאכט פאקטן און דאָס איז כּמעט שטענדיק אַנדערש.

כאָטש עטלעכע מענטשן טראַכטן אַז די אויבן ענטפער איז שווער / קאַנפיוזינג צו ענטפֿערן און אַזוי פאַרשאַפן די טשאַטבאָט צו גוואַלדעווען, עס איז נאָך אַ גילטיק דייַגע. דאָס איז בלויז איין בייַשפּיל. עס זענען קאַונטלאַס מאל, רעפּאָרטעד דורך האָרדעס פון יוזערז אָנליין, אַז ChatGPT האט ענטפֿערס, לינקס, סייטיישאַנז, אאז"ו ו. ChatGPT איז נישט עקסיסטירט.

Bing AI פיץ בעסטער מיט דעם קשיא, וואָס ווייזט אַז כאַלוסאַניישאַנז האָבן גאָרנישט צו טאָן מיט די ראַוטער. אָבער דאָס טוט נישט מיינען אַז Bing AI איז נישט כאַלוסאַנייטינג. עס זענען געווען צייט ווען די ענטפֿערס פון Bing AI זענען מער טראַבאַלינג ווי עפּעס ChatGPT האט געזאגט. זינט שמועס טענדז צו נעמען מער, Bing AI האט שטענדיק כאַלוסאַנייטינג, אפילו דערקלערט זיין ליבע צו אַ באַניצער אין איין בייַשפּיל און געגאנגען אַזוי ווייַט ווי צו זאָגן זיי אַז זיי זענען ומגליקלעך אין זייער חתונה און אַז זיי טאָן ניט ליבע זיין פרוי. אַנשטאָט, זיי זענען בעסאָד פאַנד פון בינג אַי, אָדער סידני, (די ינערלעך נאָמען פֿאַר בינג אַי), אויך. סקערי שטאָפּן, רעכט?

פארוואס טאָן אַי מאָדעלס כאַלוסאַנייט?

אַי מאָדעלס כאַלוסאַנייטינג ווייַל פון די שאָרטקאָמינגס פון די אַלגערידאַמז, די אַנדערלייינג מאָדעלס אָדער די לימיטיישאַנז פון טריינינג דאַטן. דאָס איז אַ ריין דיגיטאַל דערשיינונג, ניט ענלעך כאַלוסאַניישאַנז אין יומאַנז וואָס זענען געפֿירט דורך דרוגס אָדער גייַסטיק קראַנקייַט.

צו באַקומען מער טעכניש, עטלעכע פּראָסט סיבות פון כאַלוסאַניישאַנז זענען:

פּראַסעסינג און ינסטאַלירונג:

אָווערפיטטינג און ימפּראַפּער פּאַסן זענען צווישן די מערסט פּראָסט פּיטפאָלז פייסט דורך אַי מאָדעלס און מעגלעך סיבות פון כאַלוסאַניישאַנז. אויב די אַי מאָדעל מאַדאַפייז טריינינג דאַטן, דאָס קען פאַרשאַפן כאַלוסאַניישאַנז וואָס פירן צו אַנריליסטיק רעזולטאַט ווייַל אָוווערפיטטינג ז די מאָדעל צו ראַטעווען די טריינינג דאַטן אַנשטאָט פון לערנען פון אים. אָווערפיטטינג רעפערס צו דער דערשיינונג ווען אַ מאָדעל איז אויך ספּעשאַלייזד אין די טריינינג דאַטן, וואָס געפֿירט עס צו לערנען ירעלאַוואַנט פּאַטערנז און ראַש אין די דאַטן.

אויף די אנדערע האַנט, ינאַפּראָופּרייטנאַס אַקערז ווען די פאָרעם איז אויך פּשוט. דאָס קען פירן צו כאַלוסאַניישאַנז ווייַל דער מאָדעל איז ניט ביכולת צו כאַפּן די דיפעראַנסיז אָדער קאַמפּלעקסיטי פון די דאַטן, און ענדס דזשענערייטינג יראַשאַנאַל רעזולטאַט.

פעלן פון דייווערסיטי אין טריינינג דאַטן:

אין דעם קאָנטעקסט, די פּראָבלעם איז נישט די אַלגערידאַם אָבער די טריינינג דאַטן זיך. AI מאָדעלס טריינד אויף לימיטעד אָדער בייאַסט דאַטן קען דזשענערייט כאַלוסאַניישאַנז וואָס פאַרטראַכטנ לימיטיישאַנז אָדער בייאַסיז אין די טריינינג דאַטן. כאַלוסאַניישאַנז קענען אויך פאַלן ווען דער מאָדעל איז טריינד אויף אַ דאַטן שטעלן וואָס כּולל ומפּינקטלעך אָדער דערענדיקט אינפֿאָרמאַציע.

קאָמפּלעקס מאָדעלס:

יראָניקאַללי, אן אנדער סיבה וואָס אַי מאָדעלס זענען פּראָנע צו כאַלוסאַניישאַנז איז צי זיי זענען גאָר קאָמפּליצירט אָדער טיף. דאָס איז ווייַל קאָמפּלעקס מאָדעלס האָבן מער פּאַראַמעטערס און לייַערס וואָס קענען באַקענען ראַש אָדער ערראָרס אין דער רעזולטאַט.

פיינדלעך אטאקעס:

אין עטלעכע קאַסעס, אַי כאַלוסאַניישאַנז קען זיין דיליבראַטלי דזשענערייטאַד דורך די אַטאַקער צו אָפּנאַרן די אַי מאָדעל. די טייפּס פון אנפאלן זענען באקאנט ווי פייַנדלעך אנפאלן. דער בלויז ציל פון דעם סייבעראַטטאַק איז צו טריק אָדער מאַניפּולירן אַי מאָדעלס מיט מיסלידינג דאַטן. עס ינוואַלווז ינטראָודוסינג קליין פּערטערביישאַנז אין די אַרייַנשרייַב דאַטן צו פאַרשאַפן די אַי צו דזשענערייט פאַלש אָדער אומגעריכט רעזולטאַט. פֿאַר בייַשפּיל, אַ אַטאַקער קען לייגן ראַש אָדער בלער צו אַ בילד וואָס איז ימפּערסעפּטיבאַל פֿאַר יומאַנז אָבער געפֿירט עס צו זיין מיס קלאַססיפיעד דורך אַן אַי מאָדעל. פֿאַר בייַשפּיל, זען די בילד אונטן, אַ קאַץ, וואָס איז געווען מאַדאַפייד אַ ביסל צו טריק די קאַמפּיילער פון InceptionV3 אין סטייטינג אַז עס איז "גואַקאַמאָלע".


קרעדיט:
אַניש אַטהאַליע , אַ מיטגליד פון דער לאַבסיקס פאָרשונג גרופּע, וועמענס פאָקוס איז אויף קעגנערסיאַל אנפאלן

די ענדערונגען זענען נישט קלאָר ווי דער טאָג. פֿאַר אַ מענטש, אַ ענדערונג וועט גאָר ניט זיין מעגלעך, ווי איז קלאָר פון די אויבן בייַשפּיל. א מענטש לייענער וואָלט האָבן קיין פּראָבלעם קאַטאַגערייזינג די בילד אויף די רעכט ווי אַ טאַבי קאַץ. אָבער צו מאַכן קליין ענדערונגען צו בילדער, ווידיאס, טעקסט אָדער אַודיאָ קענען טריק די אַי סיסטעם צו דערקענען טינגז וואָס זענען נישט דאָרט אָדער איגנאָרירן זאכן וואָס זענען, ווי אַ האַלטן צייכן.

די טייפּס פון אנפאלן שטעלן ערנסט טרעץ צו אַי סיסטעמען וואָס פאַרלאָזנ זיך פּינטלעך און פאַרלאָזלעך פֿאָרויסזאָגן, אַזאַ ווי זיך-דרייווינג קאַרס, ביאָמעטריק וועראַפאַקיישאַן, מעדיציניש דיאַגנאָסטיקס, אינהאַלט פֿילטרירונג, און אַזוי אויף.

ווי געפערלעך איז אַן אַי כאַלוסאַניישאַן?

אַי כאַלוסאַניישאַנז קענען זיין זייער געפערלעך, ספּעציעל דיפּענדינג אויף וואָס טיפּ פון אַי סיסטעם איז יקספּיריאַנסט זיי. קיין זעלבסט-דרייווינג וועהיקלעס אָדער אַי אַסיסטאַנץ וואָס קענען ספּענדינג באַניצער געלט אָדער אַן אַי סיסטעם צו פילטער פּריקרע אינהאַלט אָנליין מוזן זיין גאָר טראַסטווערדי.

אָבער די ינדיספּיוטאַבאַל פאַקט פון דעם שעה איז אַז אַי סיסטעמען זענען נישט לעגאַמרע טראַסטווערדי אָבער זענען, אין פאַקט, פּראָנע צו כאַלוסאַניישאַנז. אפילו די מערסט אַוואַנסירטע אַי מאָדעלס פון הייַנט זענען נישט ימיון קעגן עס.

פֿאַר בייַשפּיל, איין באַפאַלן ווייַזן טריקט Google ס וואָלקן קאַמפּיוטינג דינסט אין טיילינג אַ ביקס ווי אַ העליקאָפּטער. קענען איר ימאַדזשאַן אויב, אין דעם מאָמענט, אַי איז פאַראַנטוואָרטלעך צו מאַכן זיכער אַז דער מענטש איז נישט אַרמד?

אן אנדער פייַנדלעך באַפאַלן דעמאַנסטרייטיד ווי אַדינג אַ קליין בילד צו אַ האַלטן צייכן מאכט עס ומזעיק פֿאַר די אַי סיסטעם. בייסיקלי, דאָס מיטל אַז אַ זעלבסט-דרייווינג מאַשין קענען זיין געמאכט צו כאַלוסאַנייט אַז עס איז קיין האַלטן צייכן אויף די וועג. ווי פילע אַקסאַדאַנץ קען פּאַסירן אויב זיך-דרייווינג קאַרס זענען געווען אַ פאַקט הייַנט? אַז איז וואָס זיי זענען נישט איצט.

אפילו אויב מיר נעמען אין חשבון די איצט פאָלקס שמועסן ווייַזן, כאַלוסאַניישאַנז קענען דזשענערייט פאַלש רעזולטאַט. אָבער מענטשן וואָס טאָן ניט וויסן אַז אַי טשאַטבאָץ זענען פּראָנע צו כאַלוסאַניישאַנז און טאָן ניט וואַלאַדייט די פּראָדוקציע געשאפן דורך אַי באָץ, קענען ינאַדווערטאַנטלי פאַרשפּרייטן מיס אינפֿאָרמאַציע. מיר דאַרפֿן נישט דערקלערן ווי געפערלעך דאָס איז.

דערצו, פייַנדלעך אנפאלן זענען אַ דרינגלעך דייַגע. ביז איצט, זיי האָבן בלויז געוויזן אין לאַבאָראַטאָריעס. אָבער אויב אַ מיסיע-קריטיש אַי סיסטעם קאַנפראַנץ זיי אין דער עמעס וועלט, די קאַנסאַקווענסאַז קענען זיין דעוואַסטייטינג.

דער פאַקט איז אַז עס איז לעפיערעך גרינגער צו באַשיצן נאַטירלעך שפּראַך מאָדעלס. (מיר זאָגן נישט אַז עס איז גרינג; עס איז נאָך פּראָווען צו זיין זייער שווער.) אָבער, פּראַטעקטינג קאָמפּיוטער זעאונג סיסטעמען איז אַ גאָר אַנדערש סצענאַר. דאָס איז מער שווער, ספּעציעל ווייַל עס איז אַזוי פיל ווערייישאַנז אין דער נאַטירלעך וועלט, און בילדער אַנטהאַלטן אַ גרויס נומער פון בילדצעלן.

צו סאָלווע דעם פּראָבלעם, מיר קען דאַרפֿן אַן אַי פּראָגראַם וואָס האט אַ מער מענטש מיינונג פון די וועלט וואָס קען מאַכן עס ווייניקער פּראָנע צו כאַלוסאַניישאַנז. בשעת פאָרשונג איז געטאן, מיר זענען נאָך אַ לאַנג וועג פון אַ קינסטלעך סייכל וואָס קענען פּרובירן צו נעמען הינץ פון נאַטור און ויסמיידן די פּראָבלעם פון כאַלוסאַניישאַנז. פֿאַר איצט, זיי זענען אַ האַרב פאַקט.

אין אַלגעמיין, אַי כאַלוסאַניישאַנז זענען אַ קאָמפּלעקס דערשיינונג וואָס קענען אויפשטיין פון אַ קאָמבינאַציע פון ​​סיבות. רעסעאַרטשערס זענען אַקטיוולי דעוועלאָפּינג מעטהאָדס פֿאַר דיטעקטינג און מיטאַגייטינג אַי כאַלוסאַניישאַנז צו פֿאַרבעסערן די אַקיעראַסי און רילייאַבילאַטי פון אַי סיסטעמען. אָבער איר זאָל זיין אַווער פון זיי ווען ינטעראַקטינג מיט קיין אַי סיסטעם.

פֿאַרבונדענע הודעות
אַרויסגעבן דעם אַרטיקל אויף

לייג צו אַ באַמערקונג