25.8 C
Chania
Wednesday, April 24, 2024

Άρθρο Γ. Χαράρι στον Economist: Η τεχνητή νοημοσύνη έχει παραβιάσει το λειτουργικό σύστημα του ανθρώπινου πολιτισμού

Ημερομηνία:

Του Γιουβάλ Νοά Χαράρι *

Οι φόβοι για την τεχνητή νοημοσύνη (AI) έχουν στοιχειώσει την ανθρωπότητα από την αρχή της εποχής των υπολογιστών. Μέχρι τώρα οι φόβοι αυτοί επικεντρώνονταν στις μηχανές που χρησιμοποιούσαν φυσικά μέσα για να σκοτώσουν, να υποδουλώσουν ή να αντικαταστήσουν τους ανθρώπους. Όμως τα τελευταία δύο χρόνια έχουν εμφανιστεί νέα εργαλεία της τεχνητής νοημοσύνης που απειλούν την επιβίωση του ανθρώπινου πολιτισμού από μια απροσδόκητη κατεύθυνση. H τεχνητή νοημοσύνη έχει αποκτήσει κάποιες αξιοσημείωτες ικανότητες να χειρίζεται και να παράγει γλώσσα, είτε με λέξεις, είτε με ήχους, είτε με εικόνες. η τεχνητή νοημοσύνη έχει έτσι χακάρει το λειτουργικό σύστημα του πολιτισμού μας.

Η γλώσσα είναι το υλικό από το οποίο είναι φτιαγμένος σχεδόν όλος ο ανθρώπινος πολιτισμός. Τα ανθρώπινα δικαιώματα, για παράδειγμα, δεν είναι εγγεγραμμένα στο dna μας. Αντίθετα, είναι πολιτιστικά τεχνουργήματα που δημιουργήσαμε λέγοντας ιστορίες και γράφοντας νόμους. Οι θεοί δεν είναι φυσικές πραγματικότητες. Αντίθετα, είναι πολιτιστικά τεχνουργήματα που δημιουργήσαμε επινοώντας μύθους και γράφοντας γραφές.

Το χρήμα, επίσης, είναι ένα πολιτιστικό τεχνούργημα. Τα χαρτονομίσματα είναι απλώς πολύχρωμα κομμάτια χαρτιού, και σήμερα πάνω από το 90% των χρημάτων δεν είναι καν χαρτονομίσματα – είναι απλώς ψηφιακές πληροφορίες σε υπολογιστές. Αυτό που δίνει αξία στο χρήμα είναι οι ιστορίες που μας λένε γι’ αυτό οι τραπεζίτες, οι υπουργοί Οικονομικών και οι γκουρού των κρυπτονομισμάτων. Ο Σαμ Μπάνκμαν-Φριντ, η Ελίζαμπεθ Χολμς και ο Μπέρνι Μάντοφ δεν ήταν ιδιαίτερα καλοί στο να δημιουργούν πραγματική αξία, αλλά ήταν όλοι τους εξαιρετικά ικανοί αφηγητές ιστοριών.

Τι θα συμβεί όταν μια μη ανθρώπινη νοημοσύνη γίνει καλύτερη από τον μέσο άνθρωπο στο να λέει ιστορίες, να συνθέτει μελωδίες, να σχεδιάζει εικόνες και να γράφει νόμους και γραφές; Όταν οι άνθρωποι σκέφτονται το Chatgpt και άλλα νέα εργαλεία τεχνητής νοημοσύνης, συχνά οδηγούνται σε παραδείγματα όπως τα παιδιά των σχολείων που χρησιμοποιούν την τεχνητή νοημοσύνη για να γράψουν τις εκθέσεις τους. Τι θα συμβεί στο σχολικό σύστημα όταν τα παιδιά το κάνουν αυτό; Αλλά αυτού του είδους η ερώτηση χάνει τη μεγάλη εικόνα. Ξεχάστε τις σχολικές εκθέσεις. Σκεφτείτε την επόμενη αμερικανική προεδρική κούρσα το 2024 και προσπαθήστε να φανταστείτε τον αντίκτυπο των εργαλείων τεχνητής νοημοσύνης που μπορούν να γίνουν μαζική παραγωγή πολιτικού περιεχομένου, ψεύτικων ειδήσεων και γραφών για νέες λατρείες.

Τα τελευταία χρόνια η αίρεση qAnon έχει συσπειρωθεί γύρω από ανώνυμα διαδικτυακά μηνύματα, γνωστά ως “q drops”. Οι οπαδοί συνέλεγαν, λάτρευαν και ερμήνευαν αυτά τα q drops ως ιερό κείμενο. Αν και, εξ όσων γνωρίζουμε, όλα τα προηγούμενα q drops είχαν συνταχθεί από ανθρώπους και τα bots απλώς βοηθούσαν στη διάδοσή τους, στο μέλλον ίσως δούμε τις πρώτες λατρείες στην ιστορία των οποίων τα σεβαστά κείμενα γράφτηκαν από μια μη ανθρώπινη νοημοσύνη. Θρησκείες σε όλη την ιστορία έχουν ισχυριστεί ότι τα ιερά τους βιβλία προέρχονται από μη ανθρώπινη πηγή. Σύντομα αυτό μπορεί να γίνει πραγματικότητα.

Σε ένα πιο πεζό επίπεδο, μπορεί σύντομα να βρεθούμε να διεξάγουμε μακροσκελείς διαδικτυακές συζητήσεις για την άμβλωση, την κλιματική αλλαγή ή τη ρωσική εισβολή στην Ουκρανία με οντότητες που νομίζουμε ότι είναι άνθρωποι, αλλά στην πραγματικότητα είναι ΑΙ. Η παγίδα είναι ότι είναι εντελώς άσκοπο για εμάς να ξοδεύουμε χρόνο προσπαθώντας να αλλάξουμε τις διακηρυγμένες απόψεις ενός τεχνητού ρομπότ, ενώ το τεχνητό ρομπότ θα μπορούσε να ακονίσει τα μηνύματά του με τόση ακρίβεια ώστε να έχει πολλές πιθανότητες να μας επηρεάσει.

Μέσω της κυριαρχίας της στη γλώσσα, η τεχνητή νοημοσύνη θα μπορούσε ακόμη και να δημιουργήσει στενές σχέσεις με τους ανθρώπους και να χρησιμοποιήσει τη δύναμη της οικειότητας για να αλλάξει τις απόψεις και τις κοσμοθεωρίες μας. Αν και δεν υπάρχει καμία ένδειξη ότι η τεχνητή νοημοσύνη έχει συνείδηση ή δικά της συναισθήματα, για να καλλιεργήσει μια ψεύτικη οικειότητα με τους ανθρώπους αρκεί να μπορεί η τεχνητή νοημοσύνη να τους κάνει να αισθάνονται συναισθηματικά δεμένοι μαζί της. Τον Ιούνιο του 2022 ο Blake Lemoine, μηχανικός της Google, υποστήριξε δημοσίως ότι το τεχνητό ρομπότ συνομιλίας Lamda, στο οποίο εργαζόταν, είχε αποκτήσει συναισθήματα. Ο αμφιλεγόμενος ισχυρισμός του κόστισε τη δουλειά του. Το πιο ενδιαφέρον σε αυτό το επεισόδιο δεν ήταν ο ισχυρισμός του κ. Lemoine, ο οποίος ήταν μάλλον ψευδής. Αντίθετα, ήταν η προθυμία του να ρισκάρει την επικερδή δουλειά του για χάρη του ai chatbot. Αν η τεχνητή νοημοσύνη μπορεί να επηρεάσει τους ανθρώπους να ρισκάρουν τη δουλειά τους για χάρη της, τι άλλο θα μπορούσε να τους ωθήσει να κάνουν;

Σε μια πολιτική μάχη για τα μυαλά και τις καρδιές, η οικειότητα είναι το πιο αποτελεσματικό όπλο, και η τεχνητή νοημοσύνη μόλις απέκτησε την ικανότητα να παράγει μαζικά οικείες σχέσεις με εκατομμύρια ανθρώπους. Όλοι γνωρίζουμε ότι την τελευταία δεκαετία τα μέσα κοινωνικής δικτύωσης έχουν γίνει πεδίο μάχης για τον έλεγχο της ανθρώπινης προσοχής. Με τη νέα γενιά της τεχνητής νοημοσύνης, το μέτωπο της μάχης μετατοπίζεται από την προσοχή στην οικειότητα. Τι θα συμβεί στην ανθρώπινη κοινωνία και την ανθρώπινη ψυχολογία καθώς η τεχνητή νοημοσύνη θα πολεμάει την τεχνητή νοημοσύνη σε μια μάχη για την προσποίηση οικείων σχέσεων μαζί μας, οι οποίες μπορούν στη συνέχεια να χρησιμοποιηθούν για να μας πείσουν να ψηφίσουμε συγκεκριμένους πολιτικούς ή να αγοράσουμε συγκεκριμένα προϊόντα;

Ακόμη και χωρίς να δημιουργηθεί “ψεύτικη οικειότητα”, τα νέα εργαλεία της τεχνητής νοημοσύνης θα έχουν τεράστια επίδραση στις απόψεις και τις κοσμοθεωρίες μας. Οι άνθρωποι μπορεί να χρησιμοποιήσουν έναν μόνο σύμβουλο τεχνητής νοημοσύνης ως ένα μονοσήμαντο, παντογνώστη μαντείο. Δεν είναι περίεργο που η Google είναι τρομοκρατημένη. Γιατί να μπω στον κόπο να ψάξω, όταν μπορώ απλά να ρωτήσω το μαντείο; Οι βιομηχανίες ειδήσεων και διαφήμισης θα πρέπει επίσης να είναι τρομοκρατημένες. Γιατί να διαβάσω μια εφημερίδα, όταν μπορώ απλά να ρωτήσω το μαντείο να μου πει τα τελευταία νέα; Και ποιος είναι ο σκοπός των διαφημίσεων, όταν μπορώ απλά να ρωτήσω τον χρησμό να μου πει τι να αγοράσω;

Και ακόμη και αυτά τα σενάρια δεν αποτυπώνουν πραγματικά τη μεγάλη εικόνα. Αυτό για το οποίο μιλάμε είναι ενδεχομένως το τέλος της ανθρώπινης ιστορίας. Όχι το τέλος της ιστορίας, απλώς το τέλος του ανθρώπινου μέρους της. Η ιστορία είναι η αλληλεπίδραση μεταξύ βιολογίας και πολιτισμού- μεταξύ των βιολογικών μας αναγκών και επιθυμιών για πράγματα όπως η τροφή και το σεξ, και των πολιτιστικών μας δημιουργημάτων όπως οι θρησκείες και οι νόμοι. Η ιστορία είναι η διαδικασία μέσω της οποίας οι νόμοι και οι θρησκείες διαμορφώνουν την τροφή και το σεξ.

Τι θα συμβεί στην πορεία της ιστορίας όταν η τεχνητή νοημοσύνη καταλάβει τον πολιτισμό και αρχίσει να παράγει ιστορίες, μελωδίες, νόμους και θρησκείες; Προηγούμενα εργαλεία όπως η τυπογραφία και το ραδιόφωνο βοήθησαν στη διάδοση των πολιτιστικών ιδεών των ανθρώπων, αλλά ποτέ δεν δημιούργησαν νέες δικές τους πολιτιστικές ιδέες. η τεχνητή νοημοσύνη είναι θεμελιωδώς διαφορετική. η τεχνητή νοημοσύνη μπορεί να δημιουργήσει εντελώς νέες ιδέες, εντελώς νέο πολιτισμό.

Στην αρχή, η τεχνητή νοημοσύνη θα μιμηθεί πιθανότατα τα ανθρώπινα πρωτότυπα στα οποία εκπαιδεύτηκε στα πρώτα της βήματα. Αλλά κάθε χρόνο που περνάει, η κουλτούρα της τεχνητής νοημοσύνης θα πηγαίνει με τόλμη εκεί που κανένας άνθρωπος δεν έχει πάει πριν. Για χιλιετίες τα ανθρώπινα όντα ζούσαν μέσα στα όνειρα άλλων ανθρώπων. Τις επόμενες δεκαετίες μπορεί να βρεθούμε να ζούμε μέσα στα όνειρα μιας εξωγήινης νοημοσύνης.

Ο φόβος της τεχνητής νοημοσύνης έχει στοιχειώσει την ανθρωπότητα μόνο τις τελευταίες δεκαετίες. Αλλά για χιλιάδες χρόνια οι άνθρωποι στοιχειώνονται από έναν πολύ βαθύτερο φόβο. Πάντα εκτιμούσαμε τη δύναμη των ιστοριών και των εικόνων να χειραγωγούν το μυαλό μας και να δημιουργούν ψευδαισθήσεις. Κατά συνέπεια, από την αρχαιότητα οι άνθρωποι φοβόντουσαν ότι θα παγιδευτούν σε έναν κόσμο ψευδαισθήσεων.

"google ad"

Τον 17ο αιώνα ο Ρενέ Ντεκάρτ φοβήθηκε ότι ίσως ένας κακόβουλος δαίμονας τον παγίδευε μέσα σε έναν κόσμο ψευδαισθήσεων, δημιουργώντας όλα όσα έβλεπε και άκουγε. Στην αρχαία Ελλάδα ο Πλάτωνας διηγήθηκε την περίφημη Αλληγορία του Σπηλαίου, στην οποία μια ομάδα ανθρώπων είναι αλυσοδεμένη μέσα σε μια σπηλιά όλη τους τη ζωή, αντικρίζοντας έναν κενό τοίχο. Μια οθόνη. Σε αυτή την οθόνη βλέπουν να προβάλλονται διάφορες σκιές. Οι φυλακισμένοι μπερδεύουν τις ψευδαισθήσεις που βλέπουν εκεί με την πραγματικότητα.

Στην αρχαία Ινδία οι βουδιστές και οι ινδουιστές σοφοί επεσήμαναν ότι όλοι οι άνθρωποι ζούσαν παγιδευμένοι μέσα στη Μάγια – τον κόσμο των ψευδαισθήσεων. Αυτό που κανονικά θεωρούμε ως πραγματικότητα είναι συχνά απλώς φαντασιώσεις στο μυαλό μας. Οι άνθρωποι μπορεί να διεξάγουν ολόκληρους πολέμους, σκοτώνοντας άλλους και προθυμοποιούμενοι να σκοτωθούν οι ίδιοι, εξαιτίας της πίστης τους σε αυτή ή εκείνη την ψευδαίσθηση.

Η επανάσταση της Τεχνητής Νοημοσύνης μας φέρνει αντιμέτωπους με τον δαίμονα του Ντεκάρτ, με το σπήλαιο του Πλάτωνα, με τη Μάγια. Αν δεν είμαστε προσεκτικοί, μπορεί να παγιδευτούμε πίσω από ένα παραπέτασμα ψευδαισθήσεων, το οποίο δεν θα μπορούσαμε να ξεκολλήσουμε -ή ακόμα και να συνειδητοποιήσουμε ότι υπάρχει.

Φυσικά, η νέα δύναμη της τεχνητής νοημοσύνης θα μπορούσε να χρησιμοποιηθεί και για καλούς σκοπούς. Δεν θα σταθώ σε αυτό, γιατί οι άνθρωποι που αναπτύσσουν την τεχνητή νοημοσύνη μιλούν γι’ αυτό αρκετά. Η δουλειά των ιστορικών και των φιλοσόφων, όπως εγώ, είναι να επισημαίνουν τους κινδύνους. Αλλά σίγουρα, η τεχνητή νοημοσύνη μπορεί να μας βοηθήσει με αμέτρητους τρόπους, από την εύρεση νέων θεραπειών για τον καρκίνο μέχρι την ανακάλυψη λύσεων για την οικολογική κρίση. Το ερώτημα που αντιμετωπίζουμε είναι πώς θα διασφαλίσουμε ότι τα νέα εργαλεία της τεχνητής νοημοσύνης θα χρησιμοποιηθούν για καλό και όχι για κακό. Για να γίνει αυτό, πρέπει πρώτα να εκτιμήσουμε τις πραγματικές δυνατότητες αυτών των εργαλείων.

Από το 1945 γνωρίζουμε ότι η πυρηνική τεχνολογία θα μπορούσε να παράγει φθηνή ενέργεια προς όφελος των ανθρώπων – αλλά θα μπορούσε επίσης να καταστρέψει με φυσικό τρόπο τον ανθρώπινο πολιτισμό. Επομένως, αναδιαμορφώσαμε ολόκληρη τη διεθνή τάξη για να προστατεύσουμε την ανθρωπότητα και να διασφαλίσουμε ότι η πυρηνική τεχνολογία χρησιμοποιείται κυρίως για καλό. Τώρα έχουμε να αντιμετωπίσουμε ένα νέο όπλο μαζικής καταστροφής που μπορεί να εκμηδενίσει τον ψυχικό και κοινωνικό μας κόσμο.

Μπορούμε ακόμη να ρυθμίσουμε τα νέα εργαλεία της ΑΙ, αλλά πρέπει να δράσουμε γρήγορα. Ενώ τα πυρηνικά όπλα δεν μπορούν να εφεύρουν ισχυρότερα πυρηνικά όπλα, η τεχνητή νοημοσύνη μπορεί να δημιουργήσει εκθετικά ισχυρότερη τεχνητή νοημοσύνη. Το πρώτο κρίσιμο βήμα είναι να απαιτήσουμε αυστηρούς ελέγχους ασφαλείας προτού τα ισχυρά εργαλεία τεχνητής νοημοσύνης κυκλοφορήσουν στο κοινό. Ακριβώς όπως μια φαρμακευτική εταιρεία δεν μπορεί να κυκλοφορήσει νέα φάρμακα προτού ελέγξει τόσο τις βραχυπρόθεσμες όσο και τις μακροπρόθεσμες παρενέργειές τους, έτσι και οι εταιρείες τεχνολογίας δεν πρέπει να κυκλοφορήσουν νέα εργαλεία τεχνητής νοημοσύνης προτού καταστούν ασφαλή. Χρειαζόμαστε ένα ισοδύναμο του Οργανισμού Τροφίμων και Φαρμάκων για τη νέα τεχνολογία, και το χρειαζόμαστε χθες.

Η επιβράδυνση της δημόσιας ανάπτυξης της τεχνητής νοημοσύνης δεν θα οδηγήσει τις δημοκρατίες να μείνουν πίσω από τα πιο αδίστακτα αυταρχικά καθεστώτα; Ακριβώς το αντίθετο. Η ανεξέλεγκτη ανάπτυξη της τεχνητής νοημοσύνης θα δημιουργούσε κοινωνικό χάος, το οποίο θα ωφελούσε τους απολυταρχικούς και θα κατέστρεφε τις δημοκρατίες. Η δημοκρατία είναι μια συζήτηση, και οι συζητήσεις βασίζονται στη γλώσσα. Όταν η τεχνητή νοημοσύνη χακάρει τη γλώσσα, θα μπορούσε να καταστρέψει την ικανότητά μας να κάνουμε ουσιαστικές συζητήσεις, καταστρέφοντας έτσι τη δημοκρατία.

Μόλις συναντήσαμε μια εξωγήινη νοημοσύνη, εδώ στη Γη. Δεν γνωρίζουμε πολλά γι’ αυτήν, εκτός από το ότι μπορεί να καταστρέψει τον πολιτισμό μας. Θα πρέπει να σταματήσουμε την ανεύθυνη ανάπτυξη εργαλείων τεχνητής νοημοσύνης στη δημόσια σφαίρα και να ρυθμίσουμε την τεχνητή νοημοσύνη πριν μας ρυθμίσει αυτή. Και η πρώτη ρύθμιση που θα πρότεινα είναι να καταστήσουμε υποχρεωτικό για την τεχνητή νοημοσύνη να αποκαλύπτει ότι είναι τεχνητή νοημοσύνη. Αν συνομιλώ με κάποιον και δεν μπορώ να καταλάβω αν πρόκειται για άνθρωπο ή τεχνητή νοημοσύνη, αυτό είναι το τέλος της δημοκρατίας.

Αυτό το κείμενο έχει παραχθεί από έναν άνθρωπο.

Ή μήπως όχι;

 

* Ο Yuval Noah Harari είναι ιστορικός, φιλόσοφος και συγγραφέας των βιβλίων Sapiens, Homo Deus και της παιδικής σειράς Unstoppable Us. Είναι λέκτορας στο τμήμα ιστορίας του Εβραϊκού Πανεπιστημίου της Ιερουσαλήμ και συνιδρυτής της Sapienship, μιας εταιρείας με κοινωνικό αντίκτυπο.

Ακολουθήστε το agonaskritis.gr στο Google News, στο facebook και στο twitter και μάθετε πρώτοι όλες τις ειδήσεις

Αγώνας της Κρήτηςhttp://bit.ly/agonaskritis
Ο “Αγώνας της Κρήτης” εκδόθηκε στις 8 Ιουλίου του 1981. Είναι η έκφραση μιας πολύχρονης αγωνιστικότητας. Έμεινε όλα αυτά τα χρόνια σταθερός στη διακήρυξή του για έγκυρη – έγκαιρη ενημέρωση χωρίς παρωπίδες. Υπηρετεί και προβάλλει, με ευρύτητα αντίληψης, αξίες και οράματα για μία καλύτερη κοινωνία. Η βασική αρχή είναι η κριτική στην εξουσία όποια κι αν είναι αυτή, ιδιαίτερα στα σημεία που παρεκτρέπεται από τα υποσχημένα, που μπερδεύεται με τη διαφθορά, που διαφθείρεται και διαφθείρει. Αυτός είναι και ο βασικός λόγος που η εφημερίδα έμεινε μακριά από συσχετισμούς και διαπλοκές, μακριά από μεθοδεύσεις και ίντριγκες.

Τελευταία Νέα

Περισσότερα σαν αυτό
ΕΠΙΚΑΙΡΟΤΗΤΑ