H τεχνητή νοημοσύνη έχει όλο και πιο συχνά ψευδαισθήσεις και παραισθήσεις και μας λέει ψέμματα καθώς εξελίσσεται, κάτι που οι επιστήμονες αποκαλούν απλώς ένα «χαρακτηριστικό» και όχι σφάλμα, σύμφωνα με έρευνα που δημοσίευσε το περιοδικό LiveScience.

Όσο πιο προηγμένη γίνεται η τεχνητή νοημοσύνη, τόσο περισσότερο «παραισθάνεται» και παρέχει λανθασμένες και ανακριβείς πληροφορίες, λένε οι επιστήμονες.

Έρευνα που διεξήγαγε η OpenAI διαπίστωσε ότι τα πιο πρόσφατα και πιο ισχυρά μοντέλα συλλογισμού της, «o3 »και «o4-mini», εμφάνισαν παραισθήσεις σε ποσοστό 33% και 48% αντίστοιχα, όταν δοκιμάστηκαν με το benchmark PersonQA της OpenAI.

Αυτό είναι περισσότερο από το διπλάσιο ποσοστό σε σχέση με το παλαιότερο μοντέλο «o1». Ενώ το «o3» παρέχει πιο ακριβείς πληροφορίες από τον προκάτοχό του, φαίνεται ότι έχει το κόστος περισσότερων ανακριβών παραισθήσεων.

Αυτό εγείρει ανησυχία σχετικά με την ακρίβεια και την αξιοπιστία των μεγάλων γλωσσικών μοντέλων (LLM) όπως τα chatbots τεχνητής νοημοσύνης, δήλωσε η Eleanor Watson, μέλος του Ινστιτούτου Ηλεκτρολόγων και Ηλεκτρονικών Μηχανικών (IEEE) και μηχανικός δεοντολογίας τεχνητής νοημοσύνης στο Πανεπιστήμιο Singularity.

«Όταν ένα σύστημα εξάγει κατασκευασμένες πληροφορίες -όπως επινοημένα γεγονότα ή παραπομπές- με την ίδια ροή και συνοχή που χρησιμοποιεί για ακριβές περιεχόμενο, υπάρχει ο κίνδυνος να παραπλανήσει τους χρήστες με ανεπαίσθητους και επακόλουθους τρόπους», δήλωσε η Watson στο Live Science.

Το ζήτημα των ψευδαισθήσεων υπογραμμίζει την ανάγκη προσεκτικής αξιολόγησης και εποπτείας των πληροφοριών που παράγουν τα συστήματα τεχνητής νοημοσύνης κατά τη χρήση LLM και μοντέλων συλλογισμού, λένε οι ειδικοί.

Είναι χαρακτηριστικό και όχι σφάλμα

Η ουσία ενός μοντέλου συλλογισμού είναι ότι μπορεί να χειριστεί πολύπλοκες εργασίες ουσιαστικά αναλύοντάς τες σε επιμέρους στοιχεία και βρίσκοντας λύσεις για την αντιμετώπισή τους. Αντί να επιδιώκουν να αποκλείουν απαντήσεις με βάση τη στατιστική πιθανότητα, τα μοντέλα συλλογισμού καταλήγουν σε στρατηγικές για την επίλυση ενός προβλήματος, όπως ακριβώς σκέφτονται οι άνθρωποι.

Προκειμένου να αναπτύξει δημιουργικές και ενδεχομένως καινοτόμες λύσεις σε προβλήματα, η Τεχνητή Νοημοσύνη χρειάζεται να έχει παραισθήσεις – διαφορετικά περιορίζεται από άκαμπτα δεδομένα που απορροφά το LLM της.

«Είναι σημαντικό να σημειωθεί ότι η παραίσθηση είναι ένα χαρακτηριστικό, όχι ένα σφάλμα, της Τεχνητής Νοημοσύνης», δήλωσε στο Live Science ο Sohrob Kazerounian, ερευνητής Τεχνητής Νοημοσύνης στην Vectra AI.

«Για να παραφράσω έναν συνάδελφό μου, “Όλα όσα εξάγει ένας LLM είναι παραίσθηση. Απλώς μερικές από αυτές τις παραισθήσεις είναι αληθινές”. Εάν μια Τεχνητή Νοημοσύνη παρήγαγε μόνο αυτούσια δεδομένα που είχε δει κατά τη διάρκεια της εκπαίδευσής της, όλη η Τεχνητή Νοημοσύνη θα μειωνόταν σε ένα τεράστιο πρόβλημα αναζήτησης».

«Θα μπορούσατε να δημιουργήσετε μόνο κώδικα υπολογιστή που είχε γραφτεί στο παρελθόν, να βρείτε πρωτεΐνες και μόρια των οποίων οι ιδιότητες έχουν ήδη μελετηθεί και περιγραφεί και να απαντήσετε σε ερωτήσεις για το σπίτι που είχαν ήδη τεθεί. Ωστόσο, δεν θα μπορούσατε να ζητήσετε από τον/την LLM να γράψει τους στίχους για ένα concept άλμπουμ που θα επικεντρώνεται στην μοναδικότητα της Τεχνητής Νοημοσύνης, συνδυάζοντας τα στιχουργικά στυλ των Snoop Dogg και Bob Dylan.»

Στην πραγματικότητα, τα LLM και τα συστήματα τεχνητής νοημοσύνης που αυτά τροφοδοτούν χρειάζεται να έχουν παραισθήσεις για να δημιουργούν, αντί απλώς να παρέχουν υπάρχουσες πληροφορίες. Είναι παρόμοιο, εννοιολογικά, με τον τρόπο που οι άνθρωποι ονειρεύονται ή φαντάζονται σενάρια όταν δημιουργούν νέες ιδέες.

Σκέψη πολύ έξω από τα συνηθισμένα

Ωστόσο, οι ψευδαισθήσεις της τεχνητής νοημοσύνης παρουσιάζουν πρόβλημα όσον αφορά την παροχή ακριβών και σωστών πληροφοριών, ειδικά εάν οι χρήστες εκλαμβάνουν τις πληροφορίες με την ονομαστική τους αξία χωρίς ελέγχους ή εποπτεία.

«Αυτό είναι ιδιαίτερα προβληματικό σε τομείς όπου οι αποφάσεις εξαρτώνται από την ακρίβεια των πραγματικών περιστατικών, όπως η ιατρική, η νομική ή τα χρηματοοικονομικά», δήλωσε η Watson.

«Ενώ τα πιο προηγμένα μοντέλα μπορεί να μειώσουν τη συχνότητα των προφανών πραγματικών λαθών, το ζήτημα επιμένει σε πιο ανεπαίσθητες μορφές. Με την πάροδο του χρόνου, η μυθοπλασία διαβρώνει την αντίληψη των συστημάτων Τεχνητής Νοημοσύνης ως αξιόπιστων μέσων και μπορεί να προκαλέσει υλικές ζημιές όταν γίνεται χρήση μη επαληθευμένου περιεχομένου».

Και αυτό το πρόβλημα φαίνεται να επιδεινώνεται καθώς η Τεχνητή Νοημοσύνη εξελίσσεται.

Πιο δύσκολος ο εντοπισμός των σφαλμάτων

«Καθώς βελτιώνονται οι δυνατότητες των μοντέλων, τα σφάλματα συχνά γίνονται λιγότερο εμφανή αλλά πιο δύσκολο να εντοπιστούν», σημείωσε η Watson. «Το κατασκευασμένο περιεχόμενο ενσωματώνεται ολοένα και περισσότερο σε εύλογες αφηγήσεις και συνεκτικές αλυσίδες συλλογισμού.

Αυτό εισάγει έναν συγκεκριμένο κίνδυνο: οι χρήστες μπορεί να μην γνωρίζουν ότι υπάρχουν σφάλματα και να θεωρούν τα αποτελέσματα ως οριστικά ενώ δεν είναι. Το πρόβλημα μετατοπίζεται από το φιλτράρισμα των ακατέργαστων σφαλμάτων στον εντοπισμό ανεπαίσθητων στρεβλώσεων που μπορεί να αποκαλυφθούν μόνο υπό στενή εξέταση».

Ο Kazerounian υποστήριξε αυτή την άποψη. «Παρά τη γενική πεποίθηση ότι το πρόβλημα των ψευδαισθήσεων μέσω της τεχνητής νοημοσύνης μπορεί και θα βελτιωθεί με την πάροδο του χρόνου, φαίνεται ότι η πιο πρόσφατη γενιά προηγμένων μοντέλων συλλογισμού μπορεί στην πραγματικότητα να έχει αρχίσει να παρουσιάζει ψευδαισθήσεις περισσότερο από τα απλούστερα αντίστοιχά τους – και δεν υπάρχουν συμφωνημένες εξηγήσεις για το γιατί συμβαίνει αυτό», είπε.

Όπως ο ανθρώπινος εγκέφαλος

Η κατάσταση περιπλέκεται περαιτέρω επειδή μπορεί να είναι πολύ δύσκολο να εξακριβωθεί πώς οι LLM καταλήγουν στις απαντήσεις τους. Θα μπορούσε να γίνει εδώ ένας παραλληλισμός με το πώς ακόμα δεν γνωρίζουμε πραγματικά, σε βάθος, πώς λειτουργεί ένας ανθρώπινος εγκέφαλος.

Σε ένα πρόσφατο δοκίμιό του, ο Dario Amodei, Διευθύνων Σύμβουλος της εταιρείας τεχνητής νοημοσύνης Anthropic, τόνισε την έλλειψη κατανόησης στον τρόπο με τον οποίο οι τεχνητές νοημοσύνης καταλήγουν σε απαντήσεις και πληροφορίες.

«Όταν ένα γενετικό σύστημα τεχνητής νοημοσύνης κάνει κάτι, όπως να συνοψίσει ένα οικονομικό έγγραφο, δεν έχουμε ιδέα, σε συγκεκριμένο ή ακριβές επίπεδο, γιατί κάνει τις επιλογές που κάνει – γιατί επιλέγει συγκεκριμένες λέξεις αντί για άλλες ή γιατί περιστασιακά κάνει λάθος, παρόλο που συνήθως είναι ακριβές», έγραψε.

Τα προβλήματα που προκαλούνται από την τεχνητή νοημοσύνη που δημιουργεί ψευδαισθήσεις και ανακριβείς πληροφορίες είναι ήδη πολύ πραγματικά, σημείωσε ο Kazerounian.

«Δεν υπάρχει καθολικός, επαληθεύσιμος τρόπος για να πειστεί ένας LLM να απαντήσει σωστά σε ερωτήσεις που του τίθενται σχετικά με κάποιο σύνολο δεδομένων στο οποίο έχει πρόσβαση», είπε. «Τα παραδείγματα ανύπαρκτων παραισθησιογόνων αναφορών, chatbot που απευθύνονται σε πελάτες και αποτελούν την πολιτική της εταιρείας και ούτω καθεξής, είναι πλέον πολύ συνηθισμένα».

Συντριπτικά όνειρα

Τόσο ο Καζερούνιαν όσο και η Watson δήλωσαν στο Live Science ότι, τελικά, οι ψευδαισθήσεις που σχετίζονται με την τεχνητή νοημοσύνη μπορεί να είναι δύσκολο να εξαλειφθούν. Ωστόσο, θα μπορούσαν να υπάρχουν τρόποι για να μετριαστεί το πρόβλημα.

Η Watson πρότεινε ότι η «γενεά με επαυξημένη ανάκτηση», η οποία βασίζει τα αποτελέσματα ενός μοντέλου σε επιμελημένες εξωτερικές πηγές γνώσης, θα μπορούσε να βοηθήσει να διασφαλιστεί ότι οι πληροφορίες που παράγονται από την Τεχνητή Νοημοσύνη βασίζονται σε επαληθεύσιμα δεδομένα.

«Μια άλλη προσέγγιση περιλαμβάνει την εισαγωγή δομής στη συλλογιστική του μοντέλου. Προτρέποντάς το να ελέγξει τα δικά του αποτελέσματα, να συγκρίνει διαφορετικές προοπτικές ή να ακολουθήσει λογικά βήματα, τα υποστηριζόμενα πλαίσια συλλογισμού μειώνουν τον κίνδυνο απεριόριστων εικασιών και βελτιώνουν τη συνέπεια», λέει η Watson, σημειώνοντας ότι αυτό θα μπορούσε να βοηθηθεί από την εκπαίδευση για τη διαμόρφωση ενός μοντέλου ώστε να ιεραρχείται η ακρίβεια και από την ενισχυτική εκπαίδευση από ανθρώπους ή αξιολογητές Τεχνητής Νοημοσύνης για να ενθαρρυνθεί ένας LLM να παρέχει πιο πειθαρχημένες, βασισμένες απαντήσεις.

Να παραδέχονται ότι δεν γνωρίζουν

«Τέλος, τα συστήματα μπορούν να σχεδιαστούν ώστε να αναγνωρίζουν τη δική τους αβεβαιότητα. Αντί να καταφεύγουν σε σίγουρες απαντήσεις, τα μοντέλα μπορούν να διδαχθούν να επισημαίνουν πότε δεν είναι σίγουρα ή να ανατρέπουν την ανθρώπινη κρίση όταν είναι απαραίτητο», πρόσθεσε η Watson. «Ενώ αυτές οι στρατηγικές δεν εξαλείφουν εντελώς τον κίνδυνο μυθοπλασίας, προσφέρουν μια πρακτική πορεία προς τα εμπρός για να γίνουν τα αποτελέσματα της Τεχνητής Νοημοσύνης πιο αξιόπιστα».

Δεδομένου ότι οι ψευδαισθήσεις της τεχνητής νοημοσύνης μπορεί να είναι σχεδόν αδύνατο να εξαλειφθούν, ειδικά σε προηγμένα μοντέλα, ο Kazerounian κατέληξε στο συμπέρασμα ότι τελικά οι πληροφορίες που παράγουν οι LLM θα πρέπει να αντιμετωπίζονται με «τον ίδιο σκεπτικισμό που επιφυλάσσουμε για τους ανθρώπινους ομολόγους μας».

tvxs.gr