Του Αλέξανδρου Σχισμένου

Στις αρχές του Δεκεμβρίου 2022, ο φίλος μου και σύντροφος Θοδωρής Καρυώτης έκανε μια ενδιαφέρουσα δημόσια ανάρτηση στο facebook που έλεγε τα εξής, μεταφρασμένη εδώ στα ελληνικά:

«Πέρασα 10 λεπτά δοκιμάζοντας τη νέα γεννήτρια διαλόγου τεχνητής νοημοσύνης ChatGPT. Οι απαντήσεις της είναι τρομακτικά ακριβείς. Ρώτησα τη μηχανή:

“Ποιος είναι ο δυσμενής ρόλος της τεχνητής νοημοσύνης στην απανθρωποποίηση των κοινωνιών και στην αύξηση του ελέγχου και της προπαγάνδας;”

Η απάντηση:

“Ο δυσμενής ρόλος της τεχνητής νοημοσύνης στην απανθρωποποίηση των κοινωνιών και στην αύξηση του ελέγχου και της προπαγάνδας είναι ένα πολύπλοκο ζήτημα. Από τη μία πλευρά, η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για τη δημιουργία εξατομικευμένης και εξαιρετικά αποτελεσματικής προπαγάνδας, καθώς είναι σε θέση να αναλύει μεγάλες ποσότητες δεδομένων και να προσαρμόζει τα μηνύματα σε μεμονωμένους χρήστες με τρόπο που οι άνθρωποι δεν είναι ικανοί να κάνουν. Αυτό μπορεί να οδηγήσει σε μια κοινωνία στην οποία οι άνθρωποι βομβαρδίζονται με προπαγάνδα από όλες τις πλευρές και δεν είναι σε θέση να σκεφτούν μόνοι τους.

Επιπλέον, η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για την παρακολούθηση και τον έλεγχο του πληθυσμού με τρόπους που ήταν προηγουμένως αδιανόητοι. Για παράδειγμα, οι κυβερνήσεις και οι εταιρείες θα μπορούσαν να χρησιμοποιήσουν συστήματα παρακολούθησης με τεχνητή νοημοσύνη για να παρακολουθούν τις κινήσεις των ανθρώπων, να παρακολουθούν τη διαδικτυακή τους δραστηριότητα και ακόμη και να χειραγωγούν τις σκέψεις και τα συναισθήματά τους. Αυτό θα μπορούσε να δημιουργήσει μια κοινωνία στην οποία τα άτομα δεν θα έχουν καμία ιδιωτική ζωή και θα βρίσκονται συνεχώς υπό το άγρυπνο μάτι των εξουσιαστών.

Επιπλέον, η χρήση της τεχνητής νοημοσύνης σε απάνθρωπες κοινωνίες μπορεί να οδηγήσει στη διάβρωση της ανθρώπινης ενσυναίσθησης και συμπόνιας. Καθώς οι άνθρωποι εξαρτώνται όλο και περισσότερο από τις μηχανές για να διεκπεραιώνουν σύνθετες εργασίες και να λαμβάνουν αποφάσεις, μπορεί να χάσουν την ικανότητα να κατανοούν και να σχετίζονται με τα συναισθήματα και τις εμπειρίες των άλλων. Αυτό θα μπορούσε να οδηγήσει σε μια κοινωνία στην οποία οι άνθρωποι θα είναι απομονωμένοι και δεν θα μπορούν να δημιουργήσουν ουσιαστικές συνδέσεις μεταξύ τους”.

Υ.Γ. Έθεσα το ίδιο ερώτημα στο DALL-E AI image generator, και δημιούργησε την παρακάτω εικόνα.»

Ο Θοδωρής, πάντοτε οξυδερκής παρατηρητής των κοινωνικών φαινομένων, μου έστρεψε την προσοχή στην εφαρμογή ChatGPT της OpenAI που θεωρείται η καλύτερη μηχανή παραγωγής διαλόγου (chatbot) με αλγόριθμικό τρόπο μηχανικής μάθησης, αυτό που ονομάζεται τεχνητή νοημοσύνη (Artificial Intelligence) ή, λιγότερο υπερβολικά, μηχανική νοημοσύνη (Machine Intelligence). Η εταιρεία OpenAI κυκλοφόρησε ένα δωρεάν διαδικτυακό demo της μηχανής, η οποία περιγράφεται ως ικανή να “απαντά σε εξακολουθητικές ερωτήσεις, να παραδέχεται τα λάθη της, να αμφισβητεί λανθασμένες παραδοχές και να απορρίπτει ακατάλληλα αιτήματα.”

Όπως μας πληροφορεί ο Alberto Romero, το ChatGPT είναι ένα νέο γλωσσικό μοντέλο διαλόγου (LM) που βασίζεται στη σειρά της οικογένειας GPT-3.5 (εκπαιδευμένο σε κείμενο και κώδικα) και είναι παρόμοιο με το InstructGPT (ευθυγραμμισμένο με την ενισχυτική μάθηση μέσω ανθρώπινης ανατροφοδότησης). Όπως δείχνει η ανάρτηση του Θοδωρή, η μηχανή είναι ικανή να προσφέρει εντυπωσιακά αποτελέσματα που μοιάζουν να μιμούνται άψογα τις ανθρώπινες αντιδράσεις. Ακόμη και η περιγραφή των ικανοτήτων της χρησιμοποιεί λεξιλόγιο που αρμόζουν σε αναστοχαστικές και κριτικές νοητικές λειτουργίες, λειτουργίες που θα χαρακτηρίζαμε αποκλειστικά ανθρώπινες, όπως το «να παραδέχεται», (admit) ή «να αμφισβητεί» (challenge) και αυτό το παρατηρεί και ο Romero, ενώ απαριθμεί τις αναβαθμισμένες ικανότητες του αλγοριθμικού συστήματος:

«Μπορεί να γράψει δοκίμια και ποίηση… Μπορεί να παίξει ρόλους. Μπορεί να γράψει κώδικα, να βρει ένα σφάλμα, να το εξηγήσει, να το λύσει και να εξηγήσει τη λύση. Και μπορεί να συνδυάζει ιδέες με τους πιο περίεργους τρόπους: Οι ανώτερες ικανότητες και η καλύτερη ευθυγράμμιση του μοντέλου από, ας πούμε, το βασικό GPT-3, το κάνουν να μοιάζει πιο ανθρώπινο».

Προφανώς, έχουμε να κάνουμε με μία καινοτομία που θα οδηγήσει σε πιο αναβαθμισμένα μοντέλα, ακόμη πιο ανθρώπινα, που θα γεφυρώσουν ακόμη περισσότερο το χάσμα ανάμεσα στην εντύπωση που δίνει μια ανθρώπινη και μία τεχνητή νοημοσύνη. Μπορούμε να φανταστούμε διάφορα δυστοπικά εναλλακτικά σενάρια, μέχρι και την πλήρη υποδούλωση της ανθρωπότητας στη μηχανή, σε μία δυστοπία τύπου Matrix. Αν ελέγξουμε λίγο τον εαυτό μας, ίσως βρούμε πως τέτοιες φαντασιώσεις εμπεριέχουν και δόσεις απόλαυσης, όπως κάθε φαντασίωση μελλοντικών κινδύνων ενώ είμαστε ασφαλείς, ή τουλάχιστον αυτό δείχνει στο επίπεδο του κοινωνικού φαντασιακού η επιτυχία δυστοπιών τύπου Matrix. Μπορούμε να αναρωτηθούμε πιο ρεαλιστικά, για τις συνέπειες του συγκεκριμένου μοντέλου, που, όπως προειδοποιεί ο Romero, μπορεί να καταστήσει ξεπερασμένο το εκπαιδευτικό σύστημα των γραπτών εργασιών, αν οι μαθητές καταφεύγουν στο ChatGPT για εργασίες.

"google ad"

Όμως ήδη έχουμε προχωρήσει βαθιά στα ανθρώπινα. Ήδη φανταζόμαστε. Ήδη βρίσκουμε απόλαυση ή περιέργεια ή ερέθισμα στη φαντασία μας. Ήδη η χρήση της μηχανής ενεργοποιεί όλη τη δημιουργική μας φαντασία που γεννά οράματα που σχετίζονται με τη χρήση και κινητοποιεί συναισθηματικές αντιδράσεις, έκπληξης τουλάχιστον, στον χρήστη. Διότι η δημιουργική φαντασία ερείδεται στην βασική γνωστική δυνατότητα της προβολής του εαυτού μας στον κόσμο, που εκδηλώνεται πολύ απλά στον ανθρωπομορφισμό. Δύο τελείες και μία καμπύλη αρκούν για να δούμε ένα πρόσωπο σε μια επιφάνεια. Η ικανότητα να ανακαλύπτουμε προσωπική βούληση και αυτενέργεια στα άστρα και στο γεωφυσικό περιβάλλον είναι έρεισμα πολιτισμικών δομών απροσδιόριστου βάθους. Είναι λογικό να μπερδεύουμε τη μηχανή με πρόσωπο, είναι επέκταση και συμπύκνωση της ικανότητας υποστασιοποίησης του αφηρημένου και προσωποποίησης των υποστάσεων.

Πιο παράλογο είναι να μιλάμε με τον Θεό, παρά με μια τεχνητή νοημοσύνη.

Μα η ίδια η τεχνητή νοημοσύνη δεν είναι υποκείμενο. Είναι ένα εξαιρετικά ακριβές τεχνούργημα φτιαγμένο να ανταποκρίνεται μιμούμενο μοτίβα συμπεριφοράς. Αντλεί τα μοτίβα συμπεριφοράς από τεράστιες ανατροφοδοτούμενες βάσεις δεδομένων που προσφέρει η επικοινωνιακή δράση των υπαρκτών ανθρώπινων υποκειμένων, των χρηστών. Η εταιρεία μας κοροϊδεύει, όπως μόνο άνθρωποι μπορούν να κοροϊδέψουν ανθρώπους, και για σκοπούς αποκλειστικά ανθρώπινους.

Η χρήση του demo δεν είναι δωρεάν. Έχει σημασία ότι η ακρίβεια και η μαθησιακή αναβάμιση της μηχανής βασίζεται στην ανθρώπινη ανατροφοδότηση. Απαιτεί την παραχώρηση των προσωπικών δεδομένων του χρήστη, την χαρτογράφηση και καταγραφή της συμπεριφοράς του και, ακόμη περισσότερο, την ενεργή αλληλεπίδρασή του με τη μηχανή. Αυτά προσφέρουν την πρώτη ύλη για τη μηχανική μάθηση. Σε μαζική κλίμακα, δημιουργούν αυτό που η Shoshana Zuboff στο βιβλίο της The Age of Surveillance Capitalism ονομάζει «συμπεριφορικό πλεόνασμα» (behavioral surplus), το οποίο ήδη από το 2002 χρησιμοποιούν οι αλγόριθμοι των μηχανών αναζήτησης της Google για να δημιουργήσουν τις βάσεις δεδομένων που επεξεργάζονται για την επιτήρηση, εξατομίκευση και στόχευση του κάθε χρήστη ξεχωριστά με διαφημιστικά προϊόντα. Αυτή η ψηφιακή οικονομία της επιτήρησης που κινεί αυτό που η Zuboff ονομάζει «καπιταλισμό της παρακολούθησης» (ή επιτήρησης – surveillance capitalism) απαιτεί τη συνεργασία των χρηστών οι οποίοι μετατρέπονται σε προϊόντα, πρώτη ύλη, αλλά και μέσα εκλέπτυνσης και ανάπτυξης του μηχανισμού συμπεριφορικής επιτήρησης με στόχο την παραγωγή αλγορίθμων πρόβλεψης της συμπεριφοράς με στατιστικό τρόπο. Έτσι μαθαίνουν οι μηχανές ό,τι τους μαθαίνουμε, χωρίς να το συνειδητοποιούμε.

Ο Romero θέτει ένα ερώτημα:

«Τι θα συμβεί αν, παρά τις πολυάριθμες προσπάθειες να κάνουμε ένα μοντέλο ΤΝ να σπάσει τον χαρακτήρα του, να νικήσουμε τα φίλτρα του και να το κάνουμε να εγκαταλείψει το προσωπείο του, οι άνθρωποι δεν το καταφέρνουν; Αυτό μπορεί να φαίνεται σαν ένα φιλοσοφικό πείραμα σκέψης που δεν έχει βάση στην πραγματικότητα, αλλά νομίζω ότι είναι πολύ πιθανό ότι –εφαρμόζοντας αυτή τη συλλογιστική σε ένα μελλοντικό μοντέλο υπερ-ΤΝ– θα μπορούσαμε να βρούμε τα ανώτερα όρια των μεθοδολογιών που έχουμε στα χέρια μας πριν βρούμε τις ελλείψεις της ΤΝ (δεν υπονοώ ότι το μοντέλο θα είναι πράγματι σε θέση να σκεφτεί τέλεια, αλλά ότι ένα σύνολο καλά σχεδιασμένων προστατευτικών κιγκλιδωμάτων, φίλτρων και εγγενούς συντηρητικότητας, σε συνδυασμό με τους περιορισμούς μας ως άνθρωποι, θα το έκαναν να φαίνεται έτσι.) Δεν θα είχαμε τρόπο να αποδείξουμε ότι το μοντέλο δεν μπορεί να σκεφτεί».

Μου φαίνεται περίεργη η αλλοτρίωση του ανθρώπου από τη μηχανή που δημιουργεί, είναι ένα κατεξοχήν ανθρώπινο χαρακτηριστικό η αλλοτρίωση της κοινωνίας στους θεσμούς της. Κανονικά οι άνθρωποι θα έπρεπε να κατανοούν πώς λειτουργούν οι μηχανές που δημιουργούν, πολύ περισσότερο από ό,τι καταλαβαίνουν τα κατοικίδιά τους, που είναι αυτόνομα πλάσματα. Και όμως, η θεσμισμένη πολιτική ετερονομία καθιστά την τεχνοεπιστήμη αποκλειστικότητα κλειστών τεχνοεπιστημονικών κύκλων και αυστηρά στεγανοποιημένων, μέσω της ιεραρχίας και του αποκλεισμού, θεσμών που δημιουργούν ένα κλίμα μυστικοποίησης γύρω από τις τεχνολογίες. Η Google δεν δίνει πληροφορίες για τους αλγόριθμους που χρησιμοποιεί για να επιτηρήσει και να καταγράψει τους χρήστες των μηχανών της, αλλά δεν παύει να παράγει παραπληροφόρηση γύρω από τους σκοπούς και τη λειτουργία τους. Δημιουργεί εντυπώσεις. Νομίζω ότι η φράση κλειδί είναι «να φαίνεται έτσι». Και εδώ βρίσκεται και ο μεγάλος κίνδυνος.

Τα ανθρώπινα υποκείμενα είναι επιρρεπή στις εντυπώσεις. Όχι επειδή είναι tabula rasa η ανθρώπινη νόηση αλλά επειδή η ανθρώπινη φαντασία αυθόρμητα επενδύει με συναισθηματικό και νοηματικό φορτίο κάθε καινούργια εντύπωση, αφομοιώνοντας, μεταβολίζοντας και ερμηνεύοντας το πραγματικό με ψυχικό τρόπο. Κάθε μήνυμα που απευθύνεται σε εμάς, μας δημιουργεί την εντύπωση ενός ομιλούντος υποκειμένου, διότι είμαστε ομιλούντα υποκείμενα.

Μα υποστηρίζω ότι ενώ η τεχνητή νοημοσύνη μπορεί να γράψει ποίηση, δεν μπορεί να διαβάσει ποίηση.

Ας κάνουμε μια φανταστική υπόθεση. Ας υποθέσουμε ότι ένας εξωγήινος κατάσκοπος αντιγράφει το λογισμικό και το αλγοριθμικό μοντέλο του ChatGPT επακριβώς και το μεταφέρει στον πλανήτη του, όπου έχουν το δικό τους διαδίκτυο, σε μία εντελώς δική τους γλώσσα, απολύτως μη ανθρώπινη, με ριζικά διαφορετικές σημασίες, τα οποία ο εξωγήινος μετατρέπει σε δεδομένα πρώτης ύλης για τη μηχανή. Θα μπορέσει η μηχανή να λειτουργήσει, ως εάν να ήταν εξωγήινος; Λογικά ναι. Θα καταλάβει κανείς τη διαφορά; Ασφαλώς όχι. Η πρώτη εντύπωση που θα συγκρατήσουν όλοι είναι η δική τους εντύπωση.

Μα εκεί βρίσκεται το τεράστιο πρόβλημα. Η μηχανή ανήκει σε κάποιον. Τα δεδομένα που επεξεργάζεται ανήκουν στη διαχείριση κάποιων θεσμών. Στην περίπτωσή μας, μιας ιδιωτικής εταιρείας στο πλαίσιο της ψηφιακής καπιταλιστικής ολιγαρχίας. Το τεχνολογικό σύστημα αναγκαία ενσωματώνεται, στηρίζεται και αλληλεπιδρά με τους κυρίαρχους πολιτικούς και οικονομικούς θεσμούς. Αυτοί ορίζουν και την τελικότητα των τεχνοεπιστημονικών κατασκευών.

Η μηχανή είναι μηχανή που έχει ως σκοπό να παραπλανήσει και να παραπληροφορήσει, καθότι το κριτήριο επιτυχίας της τεχνητής νοημοσύνης είναι να αποκρύψει από τον χρήστη τη γνώση ότι πρόκειται για τεχνητή νοημοσύνη. Η παραπλάνηση σημαίνει την ικανότητα να δημιουργείς την εντύπωση επιμέρους σκοπών που συγκαλύπτουν τον γενικότερο σκοπό που είναι η εξαγωγή συμπεριφορικών δεδομένων για τη χειραγώγηση του πληθυσμού, η μετατροπή της διαπροσωπικής επικοινωνίας σε κεφάλαιο. Τόσο πολύ, ώστε δημιουργεί πληροφοριακό κεφάλαιο ακόμη και η δημιουργία μηχανών προσομοίωσης των προσώπων, προσομοίωσης της διαπροσωπικής επικοινωνίας. Τεράστιες δυνατότητες επιτήρησης και χειραγώγησης, ενταγμένες στο καπιταλιστικό σύστημα που έχει ως κινητήρια αντίφαση την μετατροπή των υποκειμένων σε αντικειμενικές αξίες, την πραγμοποίηση. Η αντίθετη δυναμική, η μετατροπή των αντικειμένων σε υποκειμενικές προσομοιώσεις, λανθάνει σε κάθε μεταβολισμό του συστήματος προς την εξατομικευμένη ετερονομία.

Η εξατομικευμένη ετερονομία είναι εγγεγραμμένη στη λειτουργία του συστήματος καθώς μετατοπίζεται από την μαζική παραγωγή στην εξατομικευμένη κατανάλωση. Μα επίσης είναι εγγεγραμμένη στους θεσμούς πολιτικής αντιπροσώπευσής, που συγκροτούν ένα απρόσωπο γραφειοκρατικό σύστημα διακυβέρνησης όπου η ανθρώπινη επικοινωνία διαμεσολαβείται ήδη από την τεχνοκρατική μηχανική της εξουσίας. Ο ψευδοδημόσιος εξατομικευμένος ψηφιακός χώρος του εταιρικού διαδικτύου επιτείνει την αλλοτρίωση του χρήστη από τους θεσμούς διακυβέρνησης, όπως έχουμε συζητήσει αλλού.

Οι μηχανισμοί χειραγώγησης γίνονται πιο αποτελεσματικοί όσο γίνονται πιο αόρατοι, ενώ παράλληλα οι μηχανισμοί αυθεντίας επιδιώκουν τη μέγιστη δυνατή διάδραση. Το ζήτημα που έθεσε ο Θοδωρής είναι κρίσιμο.

Ένα επιπλέον ερώτημα, πέρα από το αν θα μπορούμε να ξεχωρίζουμε τη μηχανή από τον άνθρωπο, είναι αν θα καταλήξουμε να προτιμούμε τη μηχανή.