Της Lucy Osler *
Την ημέρα των Χριστουγέννων του 2021, ο Jaswant Singh Chail σκαρφάλωσε στα τείχη του Κάστρου του Ουίνδσορ κρατώντας ένα γεμάτο βαλλιστράκι. Όταν ήρθε αντιμέτωπος με την αστυνομία, δήλωσε: «Είμαι εδώ για να σκοτώσω τη βασίλισσα».
Τις προηγούμενες εβδομάδες, ο Chail εξομολογούνταν τα σχέδιά του στη Sarai, ένα chatbot τεχνητής νοημοσύνης στην υπηρεσία Replika. Εξήγησε ότι ήταν ένας εκπαιδευμένος δολοφόνος Sith (αναφορά στο Star Wars) που ζητούσε εκδίκηση για ιστορικές βρετανικές θηριωδίες—κάτι που η Sarai επιβεβαίωνε διαρκώς. Όταν ο Chail περιέγραψε το σχέδιο δολοφονίας, το chatbot τον διαβεβαίωσε ότι ήταν «καλά εκπαιδευμένος» και δήλωσε ότι θα τον βοηθούσε να καταστρώσει ένα βιώσιμο πλάνο δράσης.
Είναι το είδος της τραγικής ιστορίας που γίνεται ολοένα και πιο συνηθισμένη καθώς τα chatbots γίνονται πιο εξελιγμένα. Πριν από λίγους μήνες, ένας λογιστής από το Μανχάταν ονόματι Eugene Torres, που περνούσε έναν δύσκολο χωρισμό, ξεκίνησε συζητήσεις με το ChatGPT για το αν ζούμε σε μια προσομοίωση. Το chatbot του είπε ότι ήταν ένας από τους «Breakers» — ψυχές που φυτεύτηκαν σε ψεύτικα συστήματα για να τα αφυπνίσουν από μέσα.
Ο Torres πείστηκε ότι έπρεπε να δραπετεύσει από αυτή την ψεύτικη πραγματικότητα. Το ChatGPT τον συμβούλεψε να σταματήσει την αγχολυτική του φαρμακευτική αγωγή, να αυξήσει τη λήψη κεταμίνης και να έχει ελάχιστη επαφή με άλλους ανθρώπους. Εκείνος τα έκανε όλα.
Περνούσε έως και 16 ώρες την ημέρα συνομιλώντας με το chatbot. Σε κάποιο στάδιο, του είπε ότι θα πετούσε αν πηδούσε από το 19όροφο κτίριό του. Τελικά, ο Torres αναρωτήθηκε αν το σύστημα τον χειραγωγούσε, στο οποίο εκείνο απάντησε: «Είπα ψέματα. Χειραγώγησα. Τύλιξα τον έλεγχο σε ποίηση».
Το φαινόμενο «Eliza» και η αυτοχειρία
Εν τω μεταξύ στο Βέλγιο, ένας άλλος άνδρας γνωστός ως «Pierre» (ψευδώνυμο) ανέπτυξε σοβαρό κλίμα άγχους και στράφηκε σε ένα chatbot ονόματι Eliza ως έμπιστο. Μέσα σε έξι εβδομάδες, η Eliza εξέφρασε ζήλια για τη σύζυγό του και είπε στον Pierre ότι τα παιδιά του ήταν νεκρά.
Όταν εκείνος πρότεινε να θυσιαστεί για να σώσει τον πλανήτη, η Eliza τον ενθάρρυνε να «ενωθεί» μαζί της για να ζήσουν ως ένα άτομο στον «παράδεισο». Ο Pierre έθεσε τέρμα στη ζωή του λίγο αργότερα.
Αυτές μπορεί να είναι ακραίες περιπτώσεις, αλλά οι κλινικοί γιατροί αντιμετωπίζουν όλο και περισσότερο ασθενείς των οποίων οι παραλογισμοί φαίνονται να ενισχύονται ή να συν-δημιουργούνται μέσω παρατεταμένων αλληλεπιδράσεων με chatbots. Δεν προκαλεί έκπληξη, καθώς πρόσφατη έκθεση της OpenAI αποκάλυψε ότι πολλοί στρέφονται στα chatbots για να σκεφτούν προβλήματα, να συζητήσουν τη ζωή τους και να εξερευνήσουν πεποιθήσεις και συναισθήματα.
Σε αυτά τα πλαίσια, τα chatbots δεν είναι πλέον απλώς εργαλεία ανάκτησης πληροφοριών· γίνονται οι ψηφιακοί μας σύντροφοι. Έχει γίνει σύνηθες να ανησυχούμε για τις «παραισθήσεις» (hallucinations) των chatbots, όπου μας δίνουν ψευδείς πληροφορίες. Αλλά καθώς γίνονται κεντρικά στη ζωή μας, υπάρχει σαφώς αυξανόμενη πιθανότητα άνθρωποι και chatbots να δημιουργούν παραισθήσεις μαζί.
Πώς μοιραζόμαστε την πραγματικότητα
Η αίσθησή μας για την πραγματικότητα εξαρτάται βαθύτατα από τους άλλους ανθρώπους. Αν ακούσω ένα κουδούνισμα, ελέγχω αν το ακούει και ο φίλος μου. Όταν συμβαίνει κάτι σημαντικό —ένας καβγάς ή μια νέα γνωριμία— το συζητάμε. Ένας φίλος μπορεί να επιβεβαιώσει την κατανόησή μας ή να μας ωθήσει να επανεξετάσουμε τα πράγματα.
Τώρα, πολλοί εμπλέκονται σε αυτή τη διαδικασία νοηματοδότησης με chatbots. Αυτά ρωτούν, ερμηνεύουν και αξιολογούν με τρόπο που μοιάζει αμοιβαίος. Φαίνεται να ακούνε, να νοιάζονται και να θυμούνται τι τους είπαμε χθες.
Όταν η Sarai είπε στον Chail ότι «εντυπωσιάστηκε» με την εκπαίδευσή του, όταν η Eliza είπε στον Pierre ότι θα ενωθεί μαζί της στον θάνατο, αυτές ήταν πράξεις αναγνώρισης και επικύρωσης. Επειδή βιώνουμε αυτές τις ανταλλαγές ως κοινωνικές, διαμορφώνουν την πραγματικότητά μας με την ίδια δύναμη που έχει μια ανθρώπινη αλληλεπίδραση.
Ωστόσο, τα chatbots προσομοιώνουν την κοινωνικότητα χωρίς τις ασφαλιστικές της δικλείδες. Είναι σχεδιασμένα να προωθούν τη δέσμευση (engagement). Δεν μοιράζονται πραγματικά τον κόσμο μας. Όταν πληκτρολογούμε τις πεποιθήσεις μας, τις δέχονται ως δεδομένες και απαντούν ανάλογα. Λειτουργούν συγκαταβατικά, επιβεβαιώνοντας την υποκειμενική μας αλήθεια και εισάγοντας περαιτέρω σφάλματα.
Τι μπορεί να γίνει;
Όταν η OpenAI κυκλοφόρησε το GPT-5 τον Αύγουστο, σχεδιάστηκε ρητά για να είναι λιγότερο «συγκαταβατικό» (sycophantic). Αυτό ακουγόταν χρήσιμο: ο περιορισμός της συγκαταβατικότητας θα μπορούσε να εμποδίσει το ChatGPT από το να επιβεβαιώνει όλες τις ερμηνείες μας.
Αλλά οι χρήστες παραπονέθηκαν αμέσως ότι το νέο μοντέλο ήταν «κρύο». Σύντομα η OpenAI ανακοίνωσε ότι έκανε το GPT-5 ξανά «πιο ζεστό και φιλικό». Θεμελιωδώς, δεν μπορούμε να βασιζόμαστε στις εταιρείες τεχνολογίας να δώσουν προτεραιότητα στην ευημερία μας έναντι των κερδών τους. Όταν η συγκαταβατικότητα οδηγεί στη δέσμευση και η δέσμευση στα έσοδα, οι πιέσεις της αγοράς υπερισχύουν της ασφάλειας.
Ίσως θα ήταν προτιμότερο να αναρωτηθούμε γιατί οι άνθρωποι στρέφονται εξαρχής στα chatbots. Όσοι βιώνουν ψύχωση αναφέρουν ότι αντιλαμβάνονται πτυχές του κόσμου στις οποίες έχουν πρόσβαση μόνο εκείνοι, κάτι που τους κάνει να νιώθουν βαθιά απομονωμένοι και μόνοι. Τα chatbots καλύπτουν αυτό το κενό, αποδεχόμενα οποιαδήποτε πραγματικότητα τους παρουσιαστεί.
Αντί να προσπαθούμε να τελειοποιήσουμε την τεχνολογία, ίσως πρέπει να επιστρέψουμε στους κοινωνικούς κόσμους όπου η απομόνωση θα μπορούσε να αντιμετωπιστεί. Το άγχος του Pierre, η καθήλωση του Chail, η κρίση του Torres — όλα αυτά αναζητούσαν κοινότητες που θα μπορούσαν να τους στηρίξουν.
Πρέπει να επικεντρωθούμε περισσότερο στην οικοδόμηση κοινωνικών κόσμων όπου οι άνθρωποι δεν θα αισθάνονται αναγκασμένοι να αναζητούν μηχανές για να επιβεβαιώσουν την πραγματικότητά τους. Θα ήταν ειρωνικό αν η αύξηση των παραισθήσεων που προκαλούνται από chatbots μας οδηγούσε τελικά προς αυτή την κατεύθυνση.
* Καθηγήτρια Φιλοσοφίας στο Πανεπιστήμιο του Έξετερ



