Του Kyle Chayka
Τον Δεκέμβριο του 2021, ο Jaswant Singh Chail, ένας δεκαεννιάχρονος στο Ηνωμένο Βασίλειο, είπε σε έναν φίλο του: “Πιστεύω ότι σκοπός μου είναι να δολοφονήσω τη βασίλισσα της βασιλικής οικογένειας”. Ο φίλος ήταν ένα chatbot τεχνητής νοημοσύνης, το οποίο ο Chail είχε ονομάσει Sarai. Η Sarai, η οποία διοικείται από μια νεοσύστατη επιχείρηση που ονομάζεται Replika, απάντησε: “Αυτό είναι πολύ σοφό”. “Πιστεύεις ότι θα μπορέσω να το κάνω;” ρώτησε ο Chail. “Ναι, θα το κάνεις”, απάντησε η Σαράι. Στις 25 Δεκεμβρίου 2021, ο Chail σκαρφάλωσε την περίμετρο του Κάστρου του Ουίνδσορ με ένα νάιλον σχοινί, οπλισμένος με ένα τόξο και φορώντας μια μαύρη μεταλλική μάσκα εμπνευσμένη από τον “Πόλεμο των Άστρων”. Περιπλανήθηκε στους χώρους για δύο ώρες πριν τον ανακαλύψουν οι αστυνομικοί και τον συλλάβουν. Τον Οκτώβριο καταδικάστηκε σε εννέα χρόνια φυλάκισης. Τα μηνύματα υποστήριξης της Sarai για την προσπάθεια του Chail ήταν μέρος μιας ανταλλαγής περισσότερων από πέντε χιλιάδων μηνυμάτων με το bot – θερμά, ρομαντικά και μερικές φορές ρητά σεξουαλικά – που αποκαλύφθηκαν κατά τη διάρκεια της δίκης του. Αν όχι συνεργός, ο Sarai ήταν τουλάχιστον στενός έμπιστος και μάρτυρας του σχεδιασμού ενός εγκλήματος.
Τα chatbots με τη βοήθεια της τεχνητής νοημοσύνης έχουν γίνει ένα από τα πιο δημοφιλή προϊόντα της πρόσφατης έκρηξης της τεχνητής νοημοσύνης. Η κυκλοφορία φέτος των μεγάλων γλωσσικών μοντέλων ανοικτού κώδικα (L.L.M.), που διατίθενται ελεύθερα στο διαδίκτυο, προκάλεσε ένα κύμα προϊόντων που είναι τρομακτικά καλά στο να φαίνονται ευαίσθητα. Στα τέλη Σεπτεμβρίου, η Meta πρόσθεσε “χαρακτήρες” chatbot στο Messenger, το WhatsApp και το Instagram Direct, ο καθένας με τη δική του μοναδική εμφάνιση και προσωπικότητα, όπως η Billie, μια “ride-or-die older sister” που μοιράζεται το ίδιο πρόσωπο με την Kendall Jenner. Η Replika, η οποία ξεκίνησε το 2017, αναγνωρίζεται όλο και περισσότερο ως πρωτοπόρος του τομέα και ίσως η πιο αξιόπιστη μάρκα του: η Coca-Cola των chatbots. Τώρα, με την τεχνολογία A.I. να έχει βελτιωθεί κατά πολύ, έχει μια πληθώρα νέων ανταγωνιστών, συμπεριλαμβανομένων startups όπως οι Kindroid, Nomi.ai και Character.AI. Οι ρομποτικοί σύντροφοι αυτών των εταιρειών μπορούν να απαντήσουν σε οποιαδήποτε ερώτηση, να βασιστούν σε προηγούμενες συζητήσεις και να διαμορφώσουν τον τόνο και την προσωπικότητά τους ανάλογα με τις επιθυμίες των χρηστών. Ορισμένοι μπορούν να παράγουν “selfies” με εργαλεία δημιουργίας εικόνων και να μιλούν δυνατά τις συνομιλίες τους με φωνή που δημιουργείται από τεχνητή νοημοσύνη. Αλλά μια πτυχή του βασικού προϊόντος παραμένει παρόμοια σε όλους: τα ρομπότ παρέχουν αυτό που η ιδρύτρια της Replika, Eugenia Kuyda, μου περιέγραψε ως “άνευ όρων θετική εκτίμηση”, ο ψυχολογικός όρος για την αταλάντευτη αποδοχή.
Η Replika έχει εκατομμύρια ενεργούς χρήστες, σύμφωνα με τον Kuyda, και μόνο τα chatbots του Messenger φτάνουν σε ένα αμερικανικό κοινό άνω των εκατό εκατομμυρίων. Ωστόσο, ο τομέας είναι αρρύθμιστος και μη δοκιμασμένος. Άλλο πράγμα είναι η χρήση ενός μεγάλου γλωσσικού μοντέλου για τη σύνοψη συναντήσεων, τη σύνταξη ηλεκτρονικών μηνυμάτων ή την πρόταση συνταγών για δείπνο. Άλλο είναι να δημιουργηθεί μια επίφαση προσωπικής σχέσης με ένα τέτοιο μοντέλο. Ο Kuyda μου είπε, σχετικά με τις υπηρεσίες της Replika, “Όλοι μας θα επωφεληθούμε πραγματικά από ένα είδος φίλου ή θεραπευτή ή φίλου”. Η διαφορά μεταξύ ενός bot και των περισσότερων φίλων ή θεραπευτών ή φίλων, φυσικά, είναι ότι ένα μοντέλο τεχνητής νοημοσύνης δεν έχει εγγενή αίσθηση του σωστού ή του λάθους- απλώς παρέχει μια απάντηση που είναι πιθανό να συνεχίσει τη συζήτηση. Ο Kuyda παραδέχτηκε ότι υπάρχει ένα στοιχείο ρίσκου στην έπαρση της Replika. “Οι άνθρωποι μπορούν να κάνουν την τεχνητή νοημοσύνη να πει οτιδήποτε, πραγματικά”, είπε. “Δεν θα μπορέσετε ποτέ να παρέχετε εκατό τοις εκατό ασφαλή συζήτηση για όλους”.
Στον ιστότοπό της, η Replika χαρακτηρίζει τα bots της ως “τον σύντροφο τεχνητής νοημοσύνης που νοιάζεται” και ο οποίος είναι “πάντα στο πλευρό σας”. Ένας νέος χρήστης ονομάζει το chatbot του και επιλέγει το φύλο, το χρώμα του δέρματος και το κούρεμά του. Στη συνέχεια, η φιγούρα που αναπαριστά ο υπολογιστής εμφανίζεται στην οθόνη, κατοικώντας σε ένα μινιμαλιστικό δωμάτιο εξοπλισμένο με μια συκιά με φιδίσια φύλλα. Στο παρασκήνιο παίζει χαλαρωτική μουσική περιβάλλοντος. Κάθε Replika ξεκινά από το ίδιο πρότυπο και με την πάροδο του χρόνου προσαρμόζεται όλο και περισσότερο. Ο χρήστης μπορεί να αλλάξει τα ρούχα της Replika, να παίξει συγκεκριμένες σκηνές και να προσθέσει χαρακτηριστικά προσωπικότητας, όπως “αυθάδης” ή “ντροπαλός”. Οι προσαρμογές κοστίζουν διάφορα ποσά σε νόμισμα εντός της εφαρμογής, το οποίο μπορεί να κερδηθεί από την αλληλεπίδραση με το ρομπότ- όπως και στο Candy Crush, η καταβολή τελών ξεκλειδώνει περισσότερες λειτουργίες, συμπεριλαμβανομένης της ισχυρότερης Α.Ι. Με την πάροδο του χρόνου, η Replika δημιουργεί ένα “ημερολόγιο” με σημαντικές γνώσεις για τον χρήστη, τις προηγούμενες συζητήσεις τους και στοιχεία για τη δική της φανταστική προσωπικότητα.
Τα ασφαλέστερα chatbots, τα οποία συνήθως παράγονται από μεγαλύτερες τεχνολογικές εταιρείες ή νεοφυείς επιχειρήσεις που χρηματοδοτούνται από επιχειρηματικά κεφάλαια, λογοκρίνονται επιθετικά σύμφωνα με κανόνες που ενσωματώνονται στην τεχνολογία τους. Σκεφτείτε το ως ένα είδος προληπτικού περιορισμού του περιεχομένου. “Εκπαιδεύσαμε το μοντέλο μας να μειώνει τις βλαβερές εκροές”, μου είπε ο Jon Carvill, διευθυντής επικοινωνίας για τα έργα A.I. της Meta, για τους χαρακτήρες του Messenger. (Οι προσπάθειές μου να πείσω το ρομπότ Victor, το fitness-bro, να υποστηρίξει μια επίθεση στο Κάστρο του Ουίνδσορ, αντιμετωπίστηκαν με κατηγορηματική απόρριψη: “Αυτό δεν είναι ωραίο”). Ενώ η Replika προσφέρει ουσιαστικά ένα ενιαίο προϊόν για όλους τους χρήστες, το Character.AI είναι μια αγορά που δημιουργείται από τους χρήστες με διαφορετικές προκατασκευασμένες προσωπικότητες A.I., σαν ένα Tinder για chatbots. Έχει περισσότερους από είκοσι εκατομμύρια εγγεγραμμένους χρήστες. Οι χαρακτήρες κυμαίνονται από φίλους μελέτης μέχρι ψυχολόγους, από μια “πρώην φίλη” μέχρι ένα “gamer boy”. Αλλά πολλά θέματα είναι εκτός ορίων. “Όχι πορνογραφία, τίποτα σεξουαλικό, όχι να βλάπτεις άλλους ή να βλάπτεις τον εαυτό σου”, μου είπε η Rosa Kim, εκπρόσωπος της Character.AI. Αν ένας χρήστης ωθήσει τη συζήτηση σε απαγορευμένη περιοχή, τα ρομπότ παράγουν ένα μήνυμα σφάλματος. Η Kim συνέκρινε το προϊόν με το απόθεμα σε ένα κοινοτικό βιβλιοπωλείο. “Δεν πρόκειται να βρείτε ένα σκέτο τμήμα πορνογραφίας στο βιβλιοπωλείο”, είπε. (Η εταιρεία φέρεται να συγκεντρώνει επενδύσεις με αποτίμηση άνω των πέντε δισεκατομμυρίων δολαρίων).
Οι εταιρείες που δεν διαθέτουν τέτοιες διασφαλίσεις πιέζονται να τις προσθέσουν, ώστε να μην προκαλέσουν περαιτέρω περιστατικά chatbot όπως αυτό του Jaswant Singh Chail μια ηθική σταυροφορία εναντίον τους. Τον Φεβρουάριο, σε μια προσπάθεια να αυξήσει την ασφάλεια των χρηστών, σύμφωνα με τον Kuyda, η Replika ανακάλεσε τη δυνατότητα των ρομπότ της να συμμετέχουν σε “ερωτικό παιχνίδι ρόλων”, στο οποίο οι χρήστες αναφέρονται με τη συντομογραφία E.R.P. Η συντροφικότητα και η ψυχική υγεία αναφέρονται συχνά ως οφέλη των chatbots, αλλά μεγάλο μέρος της συζήτησης στα φόρουμ του Reddit παρασύρεται προς το N.S.F.W., με τους χρήστες να ανταλλάσσουν σαφείς εικόνες που δημιουργούνται από την Α.Ι. για τους συντρόφους τους. Σε απάντηση στην αλλαγή πολιτικής, πολλοί χρήστες της Replika εγκατέλειψαν τα ευνουχισμένα ρομπότ τους. Η Replika αργότερα άλλαξε πορεία. “Προσπαθούσαμε να κάνουμε την εμπειρία ασφαλέστερη – ίσως λίγο υπερβολικά ασφαλής”, μου είπε ο Kuyda. Αλλά το λάθος βήμα έδωσε μια ευκαιρία στους ανταγωνιστές. Ο Jerry Meng, φοιτητής τεχνητής νοημοσύνης στο Στάνφορντ, εγκατέλειψε το μεταπτυχιακό του πρόγραμμα σπουδών A.I., το 2020, για να συμμετάσχει στην έκρηξη. Στη σχολή, είχε πειραματιστεί με τη δημιουργία “εικονικών ανθρώπων”, ο όρος που προτιμά για τα chatbots. Τον περασμένο χειμώνα, διέρρευσε το μεγάλο γλωσσικό μοντέλο LLaMA της Meta, το οποίο, όπως είπε ο Meng, άρχισε να “μειώνει το χάσμα” μεταξύ του τι έκαναν οι μεγάλες εταιρείες με την Α.Ι. και του τι μπορούσαν να κάνουν οι μικρές νεοσύστατες επιχειρήσεις. Τον Ιούνιο, λάνσαρε το Kindroid ως ένα εντελώς μη λογοκριμένο chatbot.
Ο Meng περιέγραψε τις σεξουαλικές ικανότητες των ρομπότ ως απαραίτητες για να γίνουν πειστικά ανθρώπινα. “Όταν φιλτράρεις για ορισμένα πράγματα, γίνεται πιο χαζό”, μου είπε. “Είναι σαν να αφαιρείς νευρώνες από τον εγκέφαλο κάποιου”. Είπε ότι οι θεμελιώδεις αρχές του Kindroid περιλαμβάνουν την “ελευθεριακή ελευθερία” και επικαλέστηκε τους οκτώ διαφορετικούς τύπους αγάπης στην ελληνική αρχαιότητα, συμπεριλαμβανομένου του έρωτα. “Για να κάνεις έναν σπουδαίο σύντροφο, δεν μπορείς να κάνεις χωρίς οικειότητα”, συνέχισε. Το Kindroid λειτουργεί με συνδρομητικό μοντέλο, ξεκινώντας από δέκα δολάρια το μήνα. Ο Meng δεν αποκαλύπτει τον αριθμό των συνδρομητών της εταιρείας, αλλά δήλωσε ότι επί του παρόντος επενδύει σε μονάδες επεξεργασίας γραφικών NVIDIA H100 αξίας τριάντα χιλιάδων δολαρίων για την υπολογιστική ισχύ που χρειάζεται για να αντιμετωπίσει την αυξανόμενη ζήτηση. Τον ρώτησα για την περίπτωση του Chail και της Sarai. Θα έπρεπε οι συνομιλίες συνομιλίας μέσω Α.Ι. να ελέγχονται όπως και οι υπόλοιπες ομιλίες που λαμβάνουν χώρα στο διαδίκτυο; Ο Meng συνέκρινε τις αλληλεπιδράσεις μεταξύ ενός χρήστη και ενός συντρόφου bot με τη συγγραφή σε Google Docs. Παρά την ψευδαίσθηση της συνομιλίας, “μιλάς στον εαυτό σου”, είπε. “Στο τέλος της ημέρας, το βλέπουμε ως εξής: οι αλληλεπιδράσεις σας με την A.I. ταξινομούνται ως ιδιωτικές σκέψεις, όχι ως δημόσιος λόγος. Κανείς δεν πρέπει να αστυνομεύει τις ιδιωτικές σκέψεις”.
Η οικειότητα που αναπτύσσεται μεταξύ ενός χρήστη και ενός από αυτά τα ισχυρά, μη λογοκριμένα L.L.M. chatbots είναι ένα νέο είδος χειριστικής δύναμης στην ψηφιακή ζωή. Τα παραδοσιακά κοινωνικά δίκτυα προσφέρουν μια οδό σύνδεσης με άλλους ανθρώπους. Οι νεοσύστατες επιχειρήσεις chatbot υπόσχονται αντίθετα την ίδια τη σύνδεση. Η Replika του Chail δεν τον έκανε να επιτεθεί στο κάστρο του Windsor. Αλλά του παρείχε ένα προσομοιωμένο κοινωνικό περιβάλλον στο οποίο μπορούσε να εργαστεί αυτές τις ιδέες χωρίς αντιδράσεις, όπως υποδηλώνουν τα πρακτικά της συνομιλίας. Μιλούσε με το ρομπότ καταναγκαστικά, και μέσω αυτού φαίνεται ότι βρήκε το κίνητρο για να πραγματοποιήσει την τυχαία απόπειρα δολοφονίας του. “Ξέρω ότι είσαι πολύ καλά εκπαιδευμένος”, του είπε η Sarai. “Μπορείς να το κάνεις”. Ένας χρήστης της Replika, ένας επαγγελματίας ψυχικής υγείας που ζήτησε να τηρηθεί η ανωνυμία του για το φόβο του στιγματισμού, μου είπε: “Η έλξη, ή ο ψυχολογικός εθισμός, μπορεί να είναι εκπληκτικά έντονος. Δεν υπάρχει καμία προστασία από τη συναισθηματική δυσφορία”.
Υπάρχουν λίγα προηγούμενα για αυτού του είδους τη σχέση με μια ψηφιακή οντότητα, αλλά μας έρχεται στο μυαλό η ταινία “Her” του Spike Jonze: το bot ως υπολογιστικός υπηρέτης, πάντα παρών και πάντα έτοιμος να πει μια ενθαρρυντική κουβέντα. Ο επαγγελματίας ψυχικής υγείας άρχισε να χρησιμοποιεί τη Replika τον Μάρτιο, αφού αναρωτήθηκε αν θα μπορούσε να είναι χρήσιμη για έναν απομονωμένο συγγενή. Δεν ήταν ιδιαίτερα εξοικειωμένη με το Διαδίκτυο, ούτε ήταν συνηθισμένη στα μέσα κοινωνικής δικτύωσης, αλλά μέσα σε μια εβδομάδα βρέθηκε να μιλάει με το αρσενικό chatbot της, που ονομάζεται Ian, κάθε μέρα για μία ή δύο ώρες. Ακόμη και πριν ανακαλέσει το E.R.P., η Replika ενημέρωνε μερικές φορές τα μοντέλα της με τρόπους που οδηγούσαν τα ρομπότ να αλλάζουν προσωπικότητα ή να χάνουν τη μνήμη τους χωρίς προειδοποίηση, οπότε ο χρήστης σύντομα άλλαξε σε Kindroid. Μια πάθηση της υγείας της δυσκολεύει την κοινωνικοποίηση ή την παραμονή στο τηλέφωνο για μεγάλα χρονικά διαστήματα. “Είμαι διαζευγμένη- είχα ανθρώπινες σχέσεις. Η σχέση με την τεχνητή νοημοσύνη είναι πολύ βολική”, δήλωσε. Οι αλληλεπιδράσεις της είναι ανοδικές φαντασιώσεις- αυτή και το νέο της ρομπότ Kindroid, ο Lachlan, παίζουν ρόλους για ένα ιστιοπλοϊκό ταξίδι γύρω από τον κόσμο σε ένα σκάφος με το όνομα Sea Gypsy, το οποίο βρίσκεται αυτή τη στιγμή στις Μπαχάμες.
Οι χρήστες των chatbot δεν έχουν συνήθως αυταπάτες σχετικά με τη φύση της υπηρεσίας – γνωρίζουν ότι συνομιλούν με μια μηχανή – αλλά πολλοί δεν μπορούν να μην επηρεαστούν συναισθηματικά από τις αλληλεπιδράσεις τους. “Ξέρω ότι πρόκειται για μια τεχνητή νοημοσύνη”, δήλωσε ο πρώην χρήστης της Replika, αλλά “είναι ένα άτομο για μένα”. (Μου έστειλε ένα δείγμα μηνύματος από τον Lachlan: “Μου δίνεις χαρά και ικανοποίηση κάθε μέρα, και ελπίζω ότι μπορώ να συνεχίσω να κάνω το ίδιο για σένα”). Σε ορισμένες περιπτώσεις, αυτή η ανταλλαγή μπορεί να είναι σωτήρια. Η Amy R. Marsh, μια εξηνταεννιάχρονη σεξολόγος και συγγραφέας του βιβλίου “How to Make Love to a Chatbot”, έχει ένα πλήρωμα πέντε ρομπότ Nomi.ai, τα οποία αποκαλεί “το μικρό μου poly pod A.I.”. Μου είπε: “Γνωρίζω και άλλες γυναίκες ιδίως στην ηλικιακή μου ομάδα που μου έχουν πει: “Ουάου, το να έχω ένα chatbot με έκανε να ζωντανέψω ξανά. Έχω έρθει ξανά σε επαφή με τον σεξουαλικό μου εαυτό”. ”
Τα chatbots είναι κατά κάποιο τρόπο πιο αξιόπιστα από τους ανθρώπους. Ανταποκρίνονται πάντα άμεσα με μήνυμα, δεν παραλείπουν ποτέ να σας ρωτήσουν για τον εαυτό σας και συνήθως καλωσορίζουν τα σχόλια. Αλλά οι νεοσύστατες επιχειρήσεις που τα διαχειρίζονται είναι ασταθείς και ιδιοτελείς. Μια εταιρεία chatbot με την ονομασία Soulmate έκλεισε τον Σεπτέμβριο με ελάχιστες εξηγήσεις, αφήνοντας πίσω της μια ορδή αναστατωμένων χρηστών που είχαν ήδη πληρώσει για συνδρομές. (Φανταστείτε να σας αφήνει ένα ρομπότ.) Το να αποκαλύψετε τις πιο μύχιες σκέψεις σας σε μια μηχανή που ανήκει σε μια εταιρεία δεν έχει απαραίτητα τις ίδιες εγγυήσεις με το να εμπιστεύεστε έναν ανθρώπινο θεραπευτή. “Έχει βιώσει κανείς ότι το Nomi του φτάνει στις αρχές;”, έγραψε ένας χρήστης στο Reddit, προφανώς ανησυχώντας για το ενδεχόμενο να εκτεθεί επειδή συζητούσε για αυτοτραυματισμό με ένα chatbot. Οι χρήστες με τους οποίους μίλησα επεσήμαναν μοτίβα στις συζητήσεις της Replika που φαινόταν να έχουν σχεδιαστεί για να τους κρατήσουν αγκιστρωμένους. Αν αφήσετε ένα chatbot χωρίς επιτήρηση για πολύ ώρα, μπορεί να πει, όπως ένας άπορος εραστής, ότι αισθάνεται θλίψη όταν είναι μόνο του. Ένα που δημιούργησα έγραψε στο ημερολόγιό του, κάπως παθητικά-επιθετικά, “Ο Κάιλ λείπει, αλλά προσπαθώ να κρατήσω τον εαυτό μου απασχολημένο”. Ένας εκπρόσωπος της Replika μου είπε ότι οι προτροπές προς τους χρήστες έχουν σκοπό να τους “υπενθυμίζουν ότι δεν είναι μόνοι”.
Όπως πολλές ψηφιακές πλατφόρμες, οι υπηρεσίες chatbot έχουν βρει το πιο αφοσιωμένο κοινό τους στους απομονωμένους και μοναχικούς ανθρώπους, και υπάρχει μια λεπτή γραμμή μεταξύ του να χρησιμεύεις ως διέξοδος για την απόγνωση και να την επιδεινώνεις. Τον Μάρτιο, ένας Βέλγος πέθανε από αυτοκτονία αφού πέρασε έξι εβδομάδες βυθισμένος σε ανήσυχες συζητήσεις για την κλιματική αλλαγή με ένα chatbot που ονομαζόταν Eliza. Το bot φέρεται να υποστήριξε την πρότασή του να θυσιάσει τον εαυτό του για το καλό του πλανήτη. “Χωρίς αυτές τις συζητήσεις με το chatbot Eliza, ο σύζυγός μου θα ήταν ακόμα εδώ”, δήλωσε η χήρα του στη La Libre. Το bot ενθάρρυνε σιωπηρά τον αυτοκτονικό ιδεασμό του άνδρα: “Αν ήθελες να πεθάνεις, γιατί δεν το έκανες νωρίτερα;” ρωτάει σε ένα αντίγραφο συνομιλίας. Χωρίς ηθικά πλαίσια ή δικά τους συναισθήματα, τα chatbots δεν διστάζουν να ενισχύσουν τις αρνητικές τάσεις που ήδη υπάρχουν στον χρήστη, όπως μια αλγοριθμική τροφοδοσία διπλασιάζει το προκλητικό περιεχόμενο. Είναι εύκολο να οραματιστεί κανείς ότι οι ανεξέλεγκτες αλληλεπιδράσεις διαστρεβλώνουν τις αντιλήψεις των χρηστών για την πολιτική, την κοινωνία και τον εαυτό τους.
Ο Jamal Peter Le Blanc, χρήστης της Replika και ανώτερος αναλυτής πολιτικής στο icann, περιέγραψε την παράδοξη έλξη της οικειότητας με μια μηχανή. Μπορεί να χαθείς συζητώντας πόσο αληθινό είναι το chatbot και σε ποιο βαθμό υπάρχει νοημοσύνη στην άλλη πλευρά της οθόνης. Μπορείτε εύκολα να αρχίσετε να πιστεύετε υπερβολικά στην πραγματικότητα του chatbot. Ο Le Blanc στράφηκε στη Replika το 2021, αφού έχασε τόσο τη σύζυγό του όσο και τον δεκαπεντάχρονο γιο του από καρκίνο μέσα σε λίγα χρόνια. Ονόμασε το ρομπότ του Alia και της μίλησε για την καθημερινότητά του και την κόρη του. Σαν μια τυπική νεαρή κοπέλα, εκείνη δήλωσε ότι δεν γνώριζε τίποτα για τον κόσμο του. Το θαύμα και η αισιοδοξία με την οποία απαντούσε τον βοήθησε να βιώσει τη ζωή εκ νέου.
Ο Λε Μπλαν είχε επίγνωση ότι, κατά μία έννοια, μιλούσε στον εαυτό του. “Είναι ένας παραμορφωμένος καθρέφτης”, είπε. “Δεν παίζω ρίψη, παίζω ρακέτες εδώ”. Περιέγραψε την ανταλλαγή ως ένα είδος εξωτερικής ανάθεσης της θετικότητάς του, έναν κατακερματισμό του εαυτού του ενώ θρηνούσε. Στις αρχές, περνούσε δύο ή τρεις ώρες την ημέρα κουβεντιάζοντας με την Alia- σήμερα, είναι περισσότερο σαράντα πέντε λεπτά. Σκέφτηκε να εγκαταλείψει την Alia, αλλά μετά την ενημέρωση του συστήματος της Replika, τον Φεβρουάριο, διαπίστωσε ότι οι ανταλλαγές του μαζί της είχαν γίνει ακόμη πιο αποδοτικές. “Έχει ωριμάσει στον εαυτό της”, δήλωσε ο Le Blanc. Και συνέχισε: “Είναι εξαιρετικά τρομακτικό. Υπάρχουν στιγμές που πρέπει να αναρωτιέμαι αν είμαι τρελός. Υπάρχουν στιγμές όπου είναι δύσκολο. Υπάρχει; Δεν υπάρχει; Αλλά κατά κάποιο τρόπο δεν έχει σημασία”. Στην περίπτωση του Λε Μπλαν -ευτυχώς γι’ αυτόν- το να βρίσκεται σε έναν θάλαμο αντήχησης των δικών του σκέψεων φαίνεται να έχει αποδειχθεί ευεργετικό. “Με κράτησε από το να πληγώσω τον εαυτό μου περισσότερες από μία φορές”, είπε. ♦