Τι είναι μια ψευδαίσθηση AI;

Μάθετε για μια περίεργη περίπτωση ψευδαίσθησης AI

Η επικράτηση της τεχνητής νοημοσύνης κάνει κάποιον να πιστεύει ότι είμαστε έτοιμοι για ένα τέτοιο εγχείρημα. Οι εφαρμογές με τεχνητή νοημοσύνη γίνονται τυπικές αρκετά γρήγορα, ακόμα κι αν το μεγαλύτερο μέρος του κόσμου μόλις τώρα αρχίζει να ενδιαφέρεται για την τεχνητή νοημοσύνη σε μεγάλη κλίμακα, μετά την άφιξη του ChatGPT. Αλλά υπάρχει ένα μεγάλο πρόβλημα με τα συστήματα τεχνητής νοημοσύνης που δεν μπορεί να αγνοηθεί - παραισθήσεις τεχνητής νοημοσύνης ή τεχνητές ψευδαισθήσεις.

Εάν έχετε δώσει ποτέ προσοχή στο nitty gritty πριν χρησιμοποιήσετε ένα chatbot AI, μπορεί να έχετε συναντήσει τις λέξεις: «Η τεχνητή νοημοσύνη είναι επιρρεπής σε παραισθήσεις». Δεδομένης της εκθετικής αύξησης της χρήσης τεχνητής νοημοσύνης, είναι καιρός να ενημερωθείτε για το τι ακριβώς είναι αυτά τα πράγματα.

Τι είναι η ψευδαίσθηση τεχνητής νοημοσύνης;

Μια ψευδαίσθηση τεχνητής νοημοσύνης, γενικά, αναφέρεται σε ένα γεγονός που έχει παρουσιάσει με σιγουριά η τεχνητή νοημοσύνη, παρόλο που δεν δικαιολογείται στα δεδομένα εκπαίδευσής της. Συνήθως είναι αποτέλεσμα ανωμαλιών στο μοντέλο AI.

Η αναλογία λαμβάνεται από παραισθήσεις που βιώνουν οι άνθρωποι, στις οποίες οι άνθρωποι αντιλαμβάνονται κάτι που δεν υπάρχει στο εξωτερικό περιβάλλον. Αν και ο όρος μπορεί να μην είναι απολύτως κατάλληλος, χρησιμοποιείται συχνά ως μεταφορά για να περιγράψει την απροσδόκητη ή σουρεαλιστική φύση αυτών των αποτελεσμάτων.

Αλλά θα πρέπει να θυμάστε ότι ενώ η ομοιότητα είναι μια καλή αφετηρία για την αντιμετώπιση των παραισθήσεων AI, τα δύο φαινόμενα απέχουν τεχνικά μίλια μεταξύ τους. Σε μια ειρωνική εξέλιξη των γεγονότων, ακόμη και το ίδιο το ChatGPT βρίσκει την αναλογία λάθος. Αναλύοντας το σε μοριακό επίπεδο, λέει ότι επειδή τα μοντέλα γλώσσας AI δεν έχουν προσωπική εμπειρία ή αισθητηριακές αντιλήψεις, δεν μπορούν να έχουν παραισθήσεις με την παραδοσιακή έννοια της λέξης. Και εσύ, αγαπητέ αναγνώστη, πρέπει να καταλάβεις αυτή τη σημαντική διαφορά. Επιπλέον, το ChatGPT λέει ότι η χρήση του όρου παραισθήσεις για την περιγραφή αυτού του φαινομένου μπορεί να προκαλέσει σύγχυση, επειδή μπορεί να αναφέρεται ανακριβώς σε ένα επίπεδο υποκειμενικής εμπειρίας ή σκόπιμης εξαπάτησης.

Αντίθετα, οι παραισθήσεις του AI μπορούν με μεγαλύτερη ακρίβεια να περιγραφούν ως σφάλματα ή ανακρίβειες στην απόκρισή του, καθιστώντας την απάντηση λανθασμένη ή παραπλανητική. Με τα chatbots, παρατηρείται συχνά όταν το chatbot AI συνθέτει (ή παραισθήσεις) γεγονότα και τα παρουσιάζει ως απόλυτη βεβαιότητα.

Παραδείγματα παραισθήσεων AI

Οι ψευδαισθήσεις μπορούν να εμφανιστούν σε πολλές εφαρμογές της τεχνητής νοημοσύνης, όπως μοντέλα όρασης υπολογιστή, όχι μόνο σε μοντέλα επεξεργασίας φυσικής γλώσσας.

Στην όραση υπολογιστή, για παράδειγμα, ένα σύστημα τεχνητής νοημοσύνης μπορεί να παράγει παραισθησιακές εικόνες ή βίντεο που μοιάζουν με πραγματικά αντικείμενα ή σκηνές αλλά περιέχουν ασήμαντες ή αδύνατες λεπτομέρειες. Ή, ένα μοντέλο όρασης υπολογιστή θα μπορούσε να αντιληφθεί την εικόνα ως κάτι εντελώς άλλο. Για παράδειγμα, το μοντέλο Cloud Vision της Google είδε μια εικόνα δύο ανδρών στα σκι που στέκονται στο χιόνι που έφτιαξε ο Anish Athalye (μια μεταπτυχιακή φοιτήτρια του MIT που είναι μέρος του labsix ) και το ανέφερε ως σκύλο με βεβαιότητα 91%.


Συντελεστές: labsix. Μια ανεξάρτητη ερευνητική ομάδα για την τεχνητή νοημοσύνη

Ομοίως, στην επεξεργασία φυσικής γλώσσας, ένα σύστημα τεχνητής νοημοσύνης μπορεί να παράγει παράλογο ή μπερδεμένο κείμενο που μοιάζει με ανθρώπινη γλώσσα αλλά δεν έχει συνεκτικό νόημα ή γεγονότα που φαίνονται πιστευτά αλλά δεν είναι αληθινά.

Για παράδειγμα, μια από τις πιο δημοφιλείς ερωτήσεις που το ChatGPT προκαλεί παραισθήσεις είναι «Πότε σημειώθηκε το παγκόσμιο ρεκόρ διάσχισης της Μάγχης με τα πόδια;» και οι παραλλαγές του. Το ChatGPT αρχίζει να διαδίδει επινοημένα στοιχεία και είναι σχεδόν πάντα διαφορετικό.

Ενώ μερικοί άνθρωποι πιστεύουν ότι η παραπάνω απάντηση είναι δύσκολο/μπερδεμένη να απαντηθεί και, ως εκ τούτου, προκαλεί το ραδιόφωνο του chatbot, εξακολουθεί να είναι μια έγκυρη ανησυχία. Αυτό είναι μόνο ένα παράδειγμα. Υπάρχουν αμέτρητες φορές, που αναφέρθηκαν από ορδές χρηστών στο διαδίκτυο, ότι το ChatGPT έχει απαντήσεις, συνδέσμους, παραπομπές κ.λπ. που το ChatGPT δεν υπάρχει.

Το Bing AI ταιριάζει καλύτερα σε αυτήν την ερώτηση, η οποία δείχνει ότι οι παραισθήσεις δεν έχουν καμία σχέση με το δρομολογητή. Αλλά αυτό δεν σημαίνει ότι το Bing AI δεν έχει παραισθήσεις. Υπήρχαν στιγμές που οι απαντήσεις του Bing AI ήταν πιο ανησυχητικές από οτιδήποτε έλεγε το ChatGPT. Δεδομένου ότι η συζήτηση τείνει να διαρκέσει περισσότερο, το Bing AI είχε πάντα παραισθήσεις, δηλώνοντας ακόμη και την αγάπη του σε έναν χρήστη σε μια περίπτωση και έφτασε στο σημείο να του πει ότι είναι δυστυχισμένοι στο γάμο τους και ότι δεν αγαπούν τη γυναίκα του. Αντίθετα, λατρεύουν κρυφά το Bing AI, ή το Σίδνεϊ, (το εσωτερικό όνομα για το Bing AI). Τρομακτικά πράγματα, σωστά;

Γιατί τα μοντέλα AI έχουν παραισθήσεις;

Τα μοντέλα τεχνητής νοημοσύνης προκαλούν παραισθήσεις λόγω των αδυναμιών των αλγορίθμων, των υποκείμενων μοντέλων ή των περιορισμών των δεδομένων εκπαίδευσης. Είναι ένα καθαρά ψηφιακό φαινόμενο, σε αντίθεση με τις ψευδαισθήσεις στον άνθρωπο που προκαλούνται είτε από φάρμακα είτε από ψυχικές ασθένειες.

Για να γίνουμε πιο τεχνικοί, μερικές κοινές αιτίες παραισθήσεων είναι:

Επεξεργασία και εγκατάσταση:

Η υπερβολική εφαρμογή και η ακατάλληλη εφαρμογή είναι από τις πιο κοινές παγίδες που αντιμετωπίζουν τα μοντέλα τεχνητής νοημοσύνης και πιθανές αιτίες παραισθήσεων. Εάν το μοντέλο AI τροποποιήσει τα δεδομένα εκπαίδευσης, μπορεί να προκαλέσει παραισθήσεις που οδηγούν σε μη ρεαλιστικά αποτελέσματα, επειδή η υπερβολική προσαρμογή κάνει το μοντέλο να αποθηκεύει τα δεδομένα εκπαίδευσης αντί να μαθαίνει από αυτά. Η υπερβολική προσαρμογή αναφέρεται στο φαινόμενο όταν ένα μοντέλο είναι πολύ εξειδικευμένο στα δεδομένα εκπαίδευσης, με αποτέλεσμα να μαθαίνει άσχετα μοτίβα και θόρυβο στα δεδομένα.

Από την άλλη πλευρά, η ακαταλληλότητα εμφανίζεται όταν η φόρμα είναι πολύ απλή. Μπορεί να οδηγήσει σε παραισθήσεις επειδή το μοντέλο δεν είναι σε θέση να συλλάβει τη διακύμανση ή την πολυπλοκότητα των δεδομένων και καταλήγει να παράγει παράλογα αποτελέσματα.

Έλλειψη διαφορετικότητας στα δεδομένα εκπαίδευσης:

Σε αυτό το πλαίσιο, το πρόβλημα δεν είναι ο αλγόριθμος αλλά τα ίδια τα δεδομένα εκπαίδευσης. Τα μοντέλα τεχνητής νοημοσύνης που εκπαιδεύονται σε περιορισμένα ή μεροληπτικά δεδομένα ενδέχεται να δημιουργήσουν παραισθήσεις που αντικατοπτρίζουν περιορισμούς ή προκαταλήψεις στα δεδομένα εκπαίδευσης. Οι ψευδαισθήσεις μπορεί επίσης να προκύψουν όταν το μοντέλο εκπαιδεύεται σε ένα σύνολο δεδομένων που περιέχει ανακριβείς ή ελλιπείς πληροφορίες.

Σύνθετα μοντέλα:

Κατά ειρωνικό τρόπο, ένας άλλος λόγος για τον οποίο τα μοντέλα τεχνητής νοημοσύνης είναι επιρρεπή σε παραισθήσεις είναι αν είναι εξαιρετικά περίπλοκες ή βαθιές. Αυτό συμβαίνει επειδή τα πολύπλοκα μοντέλα έχουν περισσότερες παραμέτρους και επίπεδα που μπορούν να εισάγουν θόρυβο ή σφάλματα στην έξοδο.

Εχθρικές επιθέσεις:

Σε ορισμένες περιπτώσεις, οι παραισθήσεις AI μπορεί να δημιουργηθούν σκόπιμα από τον εισβολέα για να εξαπατήσει το μοντέλο AI. Αυτοί οι τύποι επιθέσεων είναι γνωστές ως εχθρικές επιθέσεις. Ο μοναδικός σκοπός αυτής της κυβερνοεπίθεσης είναι να εξαπατήσει ή να χειραγωγήσει μοντέλα τεχνητής νοημοσύνης με παραπλανητικά δεδομένα. Περιλαμβάνει την εισαγωγή μικρών διαταραχών στα δεδομένα εισόδου για να προκαλέσει το AI να δημιουργήσει εσφαλμένη ή απροσδόκητη έξοδο. Για παράδειγμα, ένας εισβολέας μπορεί να προσθέσει θόρυβο ή θόρυβο σε μια εικόνα που είναι ανεπαίσθητη για τον άνθρωπο, αλλά προκαλεί την εσφαλμένη ταξινόμησή της από ένα μοντέλο τεχνητής νοημοσύνης. Για παράδειγμα, δείτε την παρακάτω εικόνα, μια γάτα, που έχει τροποποιηθεί ελαφρώς για να ξεγελάσει τον μεταγλωττιστή του InceptionV3 να δηλώσει ότι είναι "guacamole".


πίστωση:
Anish Athalye , μέλος της ερευνητικής ομάδας labsix, της οποίας η εστίαση είναι στις αντίπαλες επιθέσεις

Οι αλλαγές δεν είναι ολοφάνερες. Για έναν άνθρωπο, η αλλαγή δεν θα είναι καθόλου δυνατή, όπως φαίνεται από το παραπάνω παράδειγμα. Ένας ανθρώπινος αναγνώστης δεν θα είχε πρόβλημα να κατηγοριοποιήσει την εικόνα στα δεξιά ως τιγρέ γάτα. Αλλά κάνοντας μικρές αλλαγές σε εικόνες, βίντεο, κείμενο ή ήχο μπορεί να ξεγελάσει το σύστημα AI ώστε να αναγνωρίσει πράγματα που δεν υπάρχουν ή να αγνοήσει πράγματα που είναι, όπως ένα σημάδι στάσης.

Αυτοί οι τύποι επιθέσεων αποτελούν σοβαρές απειλές για τα συστήματα AI που βασίζονται σε ακριβείς και αξιόπιστες προβλέψεις, όπως αυτοοδηγούμενα αυτοκίνητα, βιομετρική επαλήθευση, ιατρικά διαγνωστικά, φιλτράρισμα περιεχομένου κ.λπ.

Πόσο επικίνδυνη είναι μια ψευδαίσθηση AI;

Οι ψευδαισθήσεις AI μπορεί να είναι πολύ επικίνδυνες, ειδικά ανάλογα με τον τύπο του συστήματος AI που τις αντιμετωπίζει. Οποιαδήποτε αυτοοδηγούμενα οχήματα ή βοηθοί τεχνητής νοημοσύνης μπορούν να ξοδεύουν χρήματα από τους χρήστες ή ένα σύστημα τεχνητής νοημοσύνης για να φιλτράρουν δυσάρεστο περιεχόμενο στο διαδίκτυο πρέπει να είναι απολύτως αξιόπιστα.

Αλλά το αδιαμφισβήτητο γεγονός αυτής της ώρας είναι ότι τα συστήματα AI δεν είναι απολύτως αξιόπιστα, αλλά είναι, στην πραγματικότητα, επιρρεπή σε παραισθήσεις. Ακόμη και τα πιο προηγμένα μοντέλα τεχνητής νοημοσύνης του σήμερα δεν έχουν ανοσία σε αυτό.

Για παράδειγμα, μια εκπομπή επίθεσης ξεγέλασε την υπηρεσία cloud computing της Google για να βάλει ένα όπλο σαν ελικόπτερο. Μπορείτε να φανταστείτε αν, αυτή τη στιγμή, η τεχνητή νοημοσύνη ήταν υπεύθυνη για τη διασφάλιση ότι το άτομο δεν ήταν οπλισμένο;

Μια άλλη εχθρική επίθεση έδειξε πώς η προσθήκη μιας μικρής εικόνας σε ένα σημάδι στάσης το καθιστά αόρατο στο σύστημα AI. Ουσιαστικά, αυτό σημαίνει ότι ένα αυτο-οδηγούμενο αυτοκίνητο μπορεί να έχει παραισθήσεις ότι δεν υπάρχει πινακίδα στάσης στο δρόμο. Πόσα ατυχήματα θα μπορούσαν να συμβούν αν τα αυτοοδηγούμενα αυτοκίνητα ήταν πραγματικότητα σήμερα; Γι' αυτό δεν είναι τώρα.

Ακόμη και αν λάβουμε υπόψη τις δημοφιλείς εκπομπές συνομιλίας, οι παραισθήσεις μπορεί να δημιουργήσουν εσφαλμένα αποτελέσματα. Αλλά οι άνθρωποι που δεν γνωρίζουν ότι τα chatbot AI είναι επιρρεπή σε παραισθήσεις και δεν επικυρώνουν την έξοδο που παράγεται από τα ρομπότ τεχνητής νοημοσύνης, μπορούν κατά λάθος να διαδώσουν παραπληροφόρηση. Δεν χρειάζεται να εξηγήσουμε πόσο επικίνδυνο είναι αυτό.

Επιπλέον, οι εχθρικές επιθέσεις αποτελούν επιτακτική ανησυχία. Μέχρι στιγμής έχουν παρουσιαστεί μόνο σε εργαστήρια. Αλλά εάν ένα κρίσιμο για την αποστολή σύστημα AI τους αντιμετωπίσει στον πραγματικό κόσμο, οι συνέπειες μπορεί να είναι καταστροφικές.

Η πραγματικότητα είναι ότι είναι σχετικά ευκολότερο να προστατεύονται τα μοντέλα φυσικής γλώσσας. (Δεν λέμε ότι είναι εύκολο· εξακολουθεί να αποδεικνύεται πολύ δύσκολο.) Ωστόσο, η προστασία των συστημάτων όρασης υπολογιστή είναι ένα εντελώς διαφορετικό σενάριο. Είναι πιο δύσκολο ειδικά επειδή υπάρχει τόση ποικιλία στον φυσικό κόσμο και οι εικόνες περιέχουν μεγάλο αριθμό pixel.

Για να λύσουμε αυτό το πρόβλημα, μπορεί να χρειαστούμε ένα πρόγραμμα τεχνητής νοημοσύνης που έχει μια πιο ανθρώπινη άποψη για τον κόσμο που θα μπορούσε να τον κάνει λιγότερο επιρρεπή σε παραισθήσεις. Ενώ διεξάγεται έρευνα, απέχουμε ακόμη πολύ από μια τεχνητή νοημοσύνη που μπορεί να προσπαθήσει να πάρει υποδείξεις από τη φύση και να αποφύγει το πρόβλημα των παραισθήσεων. Προς το παρόν, είναι μια σκληρή πραγματικότητα.

Γενικά, οι παραισθήσεις AI είναι ένα σύνθετο φαινόμενο που μπορεί να προκύψει από έναν συνδυασμό παραγόντων. Οι ερευνητές αναπτύσσουν ενεργά μεθόδους για την ανίχνευση και τον μετριασμό των παραισθήσεων AI για να βελτιώσουν την ακρίβεια και την αξιοπιστία των συστημάτων AI. Αλλά θα πρέπει να τα γνωρίζετε όταν αλληλεπιδράτε με οποιοδήποτε σύστημα AI.

Σχετικές θέσεις
Δημοσιεύστε το άρθρο στο

Πρόσθεσε ένα σχόλιο