Αυτό το 6μηνο μορατόριουμ είναι οπωσδήποτε καλύτερο από το μη μορατόριουμ. Τρέφω σεβασμό προς όλους όσους βγήκαν μπροστά και το υπέγραψαν. Είναι μια βελτίωση, έστω κι οριακά.
Απέφυγα να υπογράψω γιατί πιστεύω ότι η επιστολή υποβαθμίζει τη σοβαρότητα της κατάστασης στην οποία βρισκόμαστε και ζητά να γίνουν πολύ λίγα για να λυθεί.
Το βασικό ζήτημα δεν είναι το κατά πόσο ανταγωνιστική προς την ανθρώπινη νοημοσύνη (όπως το θέτει η ανοιχτή επιστολή) είναι η τεχνητή νοημοσύνη, αλλά αυτό που θα συμβεί όταν η τεχνητή νοημοσύνη φτάσει στο σημείο να είναι ανώτερη από την ανθρώπινη νοημοσύνη. Το βασικό κατώφλι μπορεί να μην είναι εμφανή και σίγουρα δεν μπορούμε να υπολογίσουμε εκ των προτέρων τι θα συμβεί και πότε, και επί του παρόντος μοιάζει πιθανό ότι κάποιο ερευνητικό εργαστήριο θα μπορούσε να ξεπεράσει τις κόκκινες γραμμές χωρίς καν να το αντιληφθεί.
Οι περισσότεροι ερευνητές που ασχολούνται με αυτά τα ζητήματα, συμπεριλαμβανομένου και του εαυτού μου, πιστεύουν ότι το πιο πιθανό αποτέλεσμα της κατασκευής μιας υπεράνθρωπα έξυπνης τεχνητής νοημοσύνης, υπό οτιδήποτε ομοιάζει τις τρέχουσες συνθήκες, θα είναι κυριολεκτικά ότι όλοι οι άνθρωποι στη Γη θα πεθάνουν. Όχι «ίσως, ή υπό συγκεκριμένες συνθήκες ή είναι κάπως πιθανό», αλλά ότι εφόσον φτάσουμε σε αυτό το σημείο, «το τέλος της ανθρωπότητας είναι το προφανές πράγμα που θα συμβεί». Δεν είναι ότι δεν γίνεται να επιβιώσεις δημιουργώντας κάτι πολύ πιο έξυπνο αλλά ότι για να συμβεί αυτό απαιτείται ακρίβεια και προετοιμασία και νέες επιστημονικές γνώσεις και πιθανώς να μην υπάρχουν συστήματα τεχνητής νοημοσύνης που αποτελούνται από γιγάντιες ανεξερεύνητες συστοιχίες κλασματικών αριθμών.
Χωρίς αυτή την ακρίβεια και την προετοιμασία, το πιο πιθανό αποτέλεσμα είναι να προκύψει μια τεχνητή νοημοσύνη που δεν θα κάνει αυτό που θέλουμε και δεν θα νοιάζεται για εμάς ούτε για την ζωή γενικά. Το να νοιάζεται η τεχνητή νοημοσύνη για την ζωή είναι κάτι που θα μπορούσε καταρχήν να εμποτιστεί στην τεχνολογία, αλλά δεν είμαστε έτοιμοι να το κάνουμε αυτό και δεν ξέρουμε προς το παρόν πώς να το κάνουμε!
Δίχως την ικανότητα να νοιαστεί, καταλαβαίνουμε ότι έχουμε «μία τεχνητή νοημοσύνη που δεν σε αγαπά, ούτε σε μισεί, και που αντιλαμβάνεται ότι είσαι φτιαγμένος από άτομα που μπορεί να χρησιμοποιήσει για κάτι άλλο».
Το πιθανό αποτέλεσμα του να αντιμετωπίσει η ανθρωπότητα μια αντίθετη υπεράνθρωπη νοημοσύνη θα είναι μια συντριβή. Αν μπορούσαμε να κάνουμε μια σύγκριση θα ήταν σα «ένα 10χρονο παιδί να προσπαθεί να παίξει σκάκι ενάντια στο Stockfish 15», ή «ο 11ος αιώνας ν προσπαθεί να πολεμήσει ενάντια στον 21ο αιώνα» ή «Ο Αυστραλοπίθηκος να προσπαθεί να πολεμήσει τον Homo sapiens».
Για να οραματιστείτε μια εχθρική υπεράνθρωπη τεχνητή νοημοσύνη, μην φανταστείτε έναν άψυχο έξυπνο στοχαστή που κατοικεί μέσα στο Διαδίκτυο και στέλνει μηνύματα ηλεκτρονικού ταχυδρομείου με κακή πρόθεση. Οραματιστείτε έναν ολόκληρο εξωγήινο πολιτισμό, που έχει τη δυνατότητα να σκέφτεται με εκατομμύρια φορές τις ανθρώπινες ταχύτητες, αρχικά περιορισμένος σε υπολογιστές—σε έναν κόσμο πλασμάτων που είναι – υπό την σκοπιά του – πολύ ανόητα και πολύ αργά.
Ένα αρκετά έξυπνο AI δεν θα μείνει περιορισμένο στους υπολογιστές για πολύ. Στον σημερινό κόσμο, μπορείτε να στείλετε DNA με email σε εργαστήρια που θα παράγουν πρωτεΐνες κατά παραγγελία, επιτρέποντας σε μια τεχνητή νοημοσύνη που αρχικά βρίσκεται περιορισμένη στο διαδίκτυο να δημιουργήσει τεχνητές μορφές ζωής ή να μεταφερθεί απευθείας στη μεταβιολογική μοριακή παραγωγή.
Αν κάποιος κατασκευάσει μια πολύ ισχυρή τεχνητή νοημοσύνη, υπό τις παρούσες συνθήκες, περιμένω ότι κάθε μέλος του ανθρώπινου είδους και όλη η βιολογική ζωή στη Γη θα πεθάνει λίγο μετά την εμφάνισή της.
Δεν υπάρχει προτεινόμενο σχέδιο για το πώς θα μπορούσαμε να κάνουμε κάτι τέτοιο και να επιβιώσουμε.
Η ανοιχτά δηλωμένη πρόθεση του OpenAI είναι να δημιουργήσει κάποια μελλοντική τεχνητή νοημοσύνη που θα κάνει την εργασία των ανθρώπων για την ευθυγράμμιση της τεχνητής νοημοσύνης με την ανθρώπινη βούληση. Μόνο το να ακούες ότι αυτό είναι το σχέδιο που έχουν στο μυαλό τους θα έπρεπε να είναι αρκετό για να πανικοβληθεί οποιοδήποτε άνθρωπος με λογική. Το άλλο κορυφαίο εργαστήριο AI, το DeepMind, δεν έχει κανένα απολύτως σχέδιο.
Κάτι ακόμα: Κανένας από αυτούς τους κινδύνους που περιγράφω δεν σχετίζεται με το κατά πόσο η Τεχνητή Νοημοσύνη έχει ήδη ή δεν έχει συνείδηση. Τούτου λεχθέντος, θα ήταν παράλειψή μου σε σχέση με τα ηθικά μου καθήκοντα ως άνθρωπος, αν δεν ανέφερα επίσης ότι δεν έχουμε ιδέα πώς να προσδιορίσουμε εάν τα συστήματα τεχνητής νοημοσύνης έχουν επίγνωση του εαυτού τους – καθώς δεν έχουμε ιδέα πώς να αποκωδικοποιήσουμε οτιδήποτε συμβαίνει στις γιγάντιες ανεξιχνίαστες συστοιχίες—και επομένως μπορεί κάποια στιγμή να δημιουργήσουμε ακούσια ψηφιακά μυαλά που είναι πραγματικά συνειδητά και θα έπρεπε να έχουν δικαιώματα και δεν πρέπει να αποτελούν ιδιοκτησία μας.
Ο κανόνας που οι περισσότεροι άνθρωποι πίστευαν ότι αρκούσε σε αυτά τα ζητήματα εδώ και 50 χρόνια ήταν ότι εάν ένα σύστημα τεχνητής νοημοσύνης μπορεί να μιλάει άπταιστα και λέει ότι έχει αυτογνωσία και απαιτεί ανθρώπινα δικαιώματα, αυτό θα έπρεπε να βάζει ένα στοπ στους ανθρώπους από το να κατέχουν την τεχνητή νοημοσύνη και να τη χρησιμοποιούν πέρα από κάποιο σημείο. Έχουμε ήδη ξεπεράσει αυτή την παλιά γραμμή στην άμμο. Και αυτό ήταν μάλλον σωστό.
Συμφωνώ ότι οι τρέχουσες τεχνολογίες τεχνητής νοημοσύνης μάλλον μιμούνται απλώς τη συζήτηση για αυτογνωσία από τα δεδομένα εκπαίδευσής τους. Αλλά επισημαίνω ότι, με το πόσο λίγη πραγματική εικόνα έχουμε για τα εσωτερικά αυτών των συστημάτων, δεν γνωρίζουμε στην πραγματικότητα τι συμβαίνει.
Εάν έχουμε μία τέτοια άγνοια για το GPT-4, και το GPT-5 προχωρά σε ένα τέτοιο γιγάντιο βήμα προόδου όπως τέτοιο αποτέλεσε αυτό που έγινε από το GPT-3 στο GPT-4, νομίζω ότι δεν θα μπορούμε πλέον να υποστηρίζουμε ότι αυτά τα συστήματα δεν έχουν επίγνωση. Θα μπορούμε απλώς να λέμε ότι «Δεν ξέρουμε. Κανείς δεν μπορεί να ξέρει”.
Εάν δεν μπορείτε να είστε σίγουροι εάν δημιουργείτε μια τεχνητή νοημοσύνη με επίγνωση του εαυτού της αυτό είναι ανησυχητικό όχι μόνο λόγω των ηθικών επιπτώσεων του γεγονότος της «αυτογνωσίας», αλλά επειδή το να είστε αβέβαιοι σημαίνει ότι δεν έχετε ιδέα τι κάνετε και αυτό είναι πολύ επικίνδυνο και γι’ αυτό θα πρέπει να σταματήσετε.
Στις 7 Φεβρουαρίου, ο Satya Nadella, Διευθύνων Σύμβουλος της Microsoft, με χαρά ανακοίνωσε ότι το νέο Bing θα κάνει την Google «να βγει έξω και να χορέψει». «Θέλω ο κόσμος να μάθει ότι τους κάναμε να χορέψουν», είπε.
Σε έναν κόσμο που ακόμη πρυτανεύει η λογική δε θα έπρεπε ποτέ να μιλούσε έτσι ο Διευθύνων Σύμβουλος της Microsoft. Δείχνει ένα συντριπτικό χάσμα μεταξύ του πόσο σοβαρά παίρνουμε το πρόβλημα και του πόσο σοβαρά χρειαζόταν να αντιμετωπίσουμε το πρόβλημα ήδη πριν από 30 χρόνια. Το χάσμα αυτό που έχει δημιουργηθεί δε μπορεί να γεφυρωθεί σε μόλις 6 μήνες.
Χρειάστηκαν περισσότερα από 60 χρόνια μεταξύ της πρώτης αντίληψης και μελέτης της έννοιας της Τεχνητής Νοημοσύνης για να φτάσουμε στις σημερινές δυνατότητες. Η επίλυση του ζητήματος της ασφάλειας της υπεράνθρωπης νοημοσύνης -όχι η τέλεια ασφάλεια, η ασφάλεια με την έννοια του «να μη σκοτώσει κυριολεκτικά τους πάντες» – θα μπορούσε εύλογα να διαρκέσει τουλάχιστον το μισό χρόνο, δηλαδή 30 χρόνια. Και το πρόβλημα με την τεχνητή νοημοσύνη είναι ότι αν το κάνετε λάθος με την πρώτη σας προσπάθεια, δεν θα έχουμε το περιθώριο να μάθουμε από τα λάθη σας, γιατί θα είμαστε όλοι νεκροί. Η ανθρωπότητα δεν θα μπορέσει να μάθει από το λάθος, δε θα έχει μία δεύτερη ευκαιρία για να προσπαθήσει και να αποτύχει καλύτερα, όπως συνέβη σε άλλες προκλήσεις που αντιμετώπισε στην ιστορία της, γιατί δε θα έχει μείνει κανείς.
Το να προσπαθείς να πετύχεις οτιδήποτε σωστά με την πρώτη πραγματικά κρίσιμη προσπάθεια είναι ένα εξαιρετικό δύσκολο επίτευγμα, τόσο στην επιστήμη όσο και στη μηχανική. Αυτή τη στιγμή δε έχουμε τίποτα από την προσέγγιση που θα απαιτούνταν για να το κάνουμε αυτό με επιτυχία. Αν τηρούνταν έστω και τα μικρότερα πρότυπα μηχανικής αυστηρότητας για ζητήματα ασφάλειας που ισχύουν λ.χ. στην κατασκευή μιας γέφυρας που προορίζεται να μεταφέρει μερικές χιλιάδες αυτοκίνητα, ολόκληρο το πεδίο της τεχνητής νοημοσύνης θα έκλεινε αύριο.
Δεν είμαστε προετοιμασμένοι. Δεν είμαστε έτοιμοι να είμαστε προετοιμασμένοι σε οποιοδήποτε εύλογο χρονικό διάστημα. Δεν υπάρχει σχέδιο. Η πρόοδος στις ικανότητες της τεχνητής νοημοσύνης τρέχει πολύ, πολύ πιο γρήγορα από την πρόοδο που κάνουμε στις δυνατότητες ευθυγράμμισης (allignment) της τεχνητής νοημοσύνης με τις ανθρώπινες ανάγκες ή ακόμα και με την πρόοδο στην κατανόηση του τι διάολο συμβαίνει μέσα σε αυτά τα συστήματα.
Αν προχωρήσουμε έτσι όπως προχωράμε, θα πεθάνουμε όλοι.
Πολλοί ερευνητές που εργάζονται σε αυτά τα συστήματα πιστεύουν ότι βυθιζόμαστε προς μια καταστροφή, με περισσότερους από αυτούς να τα λένε αυτά ιδιωτικά όχι όμως δημόσια. Αλλά πιστεύουν ότι δεν μπορούν να κάνουν κάτι για να το σταματήσουν αφού αν αυτοί σταματήσουν, οι άλλοι θα συνεχίσουν ακόμα κι αν αυτοί που εναντιώνονται σε ότι συμβαίνει εγκαταλείψουν τις δουλειές τους. Και έτσι, εν τέλει, όλοι συνεχίζουν.
Αυτή είναι μια ανόητη κατάσταση πραγμάτων και ένας αναξιοπρεπής τρόπος για να πεθάνει η Γη. Η υπόλοιπη ανθρωπότητα θα πρέπει να παρέμβει σε αυτό το σημείο και να βοηθήσει τη βιομηχανία να λύσει το πρόβλημα της συλλογικής δράσης της.
Μερικοί από τους φίλους μου πρόσφατα μου ανέφεραν ότι όταν άνθρωποι εκτός της βιομηχανίας της τεχνητής νοημοσύνης ακούνε για πρώτη φορά για τον κίνδυνο εξαφάνισης μας από την Τεχνητή Γενική Νοημοσύνη, η αντίδρασή τους είναι ότι «ίσως δεν πρέπει να φτιάξουμε το AGI (artificial general intelligence = τεχνητή γενική νοημοσύνη».
Αυτό μου έδωσε μια μικρή ελπίδα, γιατί είναι μια πιο απλή, πιο λογική και ειλικρινά πιο λογική αντίδραση από ό,τι άκουγα τα τελευταία 20 χρόνια που προσπαθούσα να κάνω οποιονδήποτε στον κλάδο να πάρει τα πράγματα στα σοβαρά. Όποιος μιλάει έτσι λογικά αξίζει να ακούσει πόσο άσχημη είναι η κατάσταση στην πραγματικότητα και να μην του πουν ότι ένα μορατόριουμ έξι μηνών πρόκειται να το διορθώσει.
Στις 16 Μαρτίου, η σύντροφός μου μου έστειλε αυτό το email. (Μου έδωσε αργότερα την άδεια να το δημοσιεύσω εδώ):
«Η Νίνα έχασε ένα δόντι! Με τον συνηθισμένο τρόπο που κάνουν τα παιδιά, όχι από ανεμελιά! Βλέποντας το GPT4 να συντρίβει όλα τα τεστ την ίδια μέρα που η Νίνα πέτυχε ένα ορόσημο στην παιδική της ηλικία έφερε μια συναισθηματική έκρηξη που με παρέσυρε για ένα λεπτό. Όλα πάνε πολύ γρήγορα! Ανησυχώ ότι το να το μοιραστείς αυτό θα αυξήσει τη δική σου θλίψη, αλλά θα προτιμούσα να είναι γνωστές οι σκέψεις μου σε εσένα παρά να υποφέρει ο καθένας από εμάς μόνος του».
Όταν η εσωτερική συζήτηση είναι για τη θλίψη να βλέπεις την κόρη σου να χάνει το πρώτο της δόντι και την πίστη σου ότι δεν θα έχει την ευκαιρία να την δεις να μεγαλώνει, πιστεύω ότι έχουμε ξεπεράσει το σημείο να παίζουμε πολιτικό σκάκι για ένα εξάμηνο μορατόριουμ.
Αν υπήρχε σχέδιο για να επιβιώσει η Γη, αν περνούσε μέσα από ένα μορατόριουμ έξι μηνών, θα υποστήριζα αυτό το σχέδιο. Δεν υπάρχει τέτοιο σχέδιο.
Εδώ είναι τι πραγματικά θα πρέπει να γίνει:
Το μορατόριουμ πρέπει να είναι επ’ αόριστο και παγκόσμιο. Δεν μπορεί να υπάρχουν εξαιρέσεις, συμπεριλαμβανομένων των κυβερνήσεων ή των στρατιωτικών.
Εάν η πολιτική ξεκινά με τις ΗΠΑ, τότε η Κίνα πρέπει να δει ότι οι ΗΠΑ δεν επιδιώκουν πλεονέκτημα, αλλά μάλλον προσπαθούν να αποτρέψουν μια τρομακτικά επικίνδυνη τεχνολογία που δεν μπορεί να έχει πραγματικό ιδιοκτήτη και η οποία θα σκοτώσει όλους στις ΗΠΑ και στην Κίνα και στη Γη.
Αν είχα άπειρη ελευθερία να γράφω νόμους, θα μπορούσα να δημιουργήσω μια μοναδική εξαίρεση για τα AI που εκπαιδεύονται αποκλειστικά για την επίλυση προβλημάτων στη βιολογία και τη βιοτεχνολογία, δεν έχουν εκπαιδευτεί σε κείμενο από το Διαδίκτυο και όχι στο επίπεδο όπου αρχίζουν να μιλούν ή να σχεδιάζουν. Αλλά αν αυτό περιέπλεκε πολύ το ζήτημα, θα απέρριπτα αμέσως αυτήν την πρόταση και θα έλεγα να κλείσει!
Τερματίστε όλα τα μεγάλα συμπλέγματα GPU (τα μεγάλα αγροκτήματα υπολογιστών όπου βελτιώνονται τα πιο ισχυρά AI). Σταματήστε την εκπαίδευση των συστημάτων. Θέστε ένα ανώτατο όριο στο πόση υπολογιστική ισχύ επιτρέπεται να χρησιμοποιεί ο καθένας στην εκπαίδευση ενός συστήματος τεχνητής νοημοσύνης και μετακινήστε το προς τα κάτω τα επόμενα χρόνια για να αντισταθμίσετε τους πιο αποτελεσματικούς αλγόριθμους εκπαίδευσης. Καμία εξαίρεση για τις κυβερνήσεις και τους στρατούς. Προχωρήστε άμεσα στην υπογραφή διεθνών συμβάσσεων για να αποτρέψετε την πραγματοποίηση των απαγορευμένων δραστηριότητων από το να μετακινηθούν αλλού. Παρακολούθηση όλων των GPU που πωλήθηκαν. Εάν οι πληροφορίες λένε ότι μια χώρα εκτός της συμφωνίας δημιουργεί ένα σύμπλεγμα GPU, να φοβάστε λιγότερο μια σύγκρουση με τα όπλα μεταξύ των εθνών παρά την παραβίαση του μορατόριουμ. Να είστε πρόθυμοι να καταστρέψετε ένα παράνομο κέντρο δεδομένων με αεροπορικές επιδρομές.
Μην αντιμετωπίσετε αυτό που τίποτα ως σύγκρουση μεταξύ εθνικών συμφερόντων, να γίνει σαφές ότι όποιος μιλάει για κούρσα εξοπλισμών είναι ανόητος. Το ότι όλοι θα ζήσουμε ή θα πεθάνουμε ως ένα, σε ότι συμβεί, δεν είναι αποτέλεσμα κάποιας πολιτικής αλλά θα είναι γεγονός της φύσης. Κάντε ξεκάθαρο στα διεθνή φόρα και στη διεθνή διπλωματία ότι η πρόληψη σεναρίων εξαφάνισης λόγω τεχνητής νοημοσύνης θα πρέπει να θεωρείται προτεραιότητα πάνω ακόμη και από την αποτροπή πλήρους πυρηνικής σύγκρουσης και ότι οι συμμαχικές πυρηνικές χώρες είναι πρόθυμες να διατρέξουν ακόμη και τον κίνδυνο πυρηνικής ανταλλαγής, εάν αυτό είναι αναγκαίο για να μειωθεί ο κίνδυνος μεγάλων κύκλων εκπαίδευσης σε τεχνητή νοημοσύνη .
Αυτό είναι το είδος της αλλαγής πολιτικής που είναι αναγκαίο θα έκανε την σύντροφό μου και εμένα να κρατάμε ο ένας στον άλλον και να λέμε ο ένας στον άλλον ότι συνέβη ένα θαύμα και τώρα υπάρχει μια πραγματική πιθανότητα να ζήσει η Νίνα μας.
Και όταν το ζητούμενο από την πολιτική σας είναι τόσο μεγάλο, ο μόνος τρόπος που μένει είναι οι υπεύθυνοι χάραξης πολιτικής να συνειδητοποιήσουν ότι εάν κάνουν τις δουλειές τους όπως τις κάνουν συνήθως και κάνουν μόνο ό,τι είναι πολιτικά εύκολο, αυτό σημαίνει ότι και τα δικά τους παιδιά θα πεθάνουν.
Κλείστε τα όλα!
Δεν είμαστε έτοιμοι! Δεν είμαστε σε καλό δρόμο για να είμαστε πιο έτοιμοι στο άμεσο μέλλον. Εάν προχωρήσουμε σε αυτό, όλοι θα πεθάνουν, συμπεριλαμβανομένων των παιδιών που δεν επέλεξαν αυτό και δεν έκαναν τίποτα κακό!
Κλείστε το!