Έκκληση για άμεση διεθνή συμφωνία ώστε να τεθούν υπό έλεγχο οι υπερ-ικανές AI τεχνολογίες πριν ξεπεράσουν την ανθρώπινη επίβλεψη
Σε μια περίοδο όπου η τεχνητή νοημοσύνη εξελίσσεται ραγδαία και οι επιπτώσεις της αγγίζουν πλέον τον πυρήνα της ανθρώπινης κοινωνίας, η πρωτοβουλία PauseAI δημοσιεύει πρόταση με στόχο το προσωρινό «πάγωμα» της εκπαίδευσης των πιο ισχυρών γενικών συστημάτων τεχνητής νοημοσύνης (AGI), μέχρι να διασφαλιστεί ότι η ανάπτυξή τους μπορεί να γίνει με ασφάλεια και υπό δημοκρατικό έλεγχο.
Η έκδοση της πρότασης, με ημερομηνία 4 Φεβρουαρίου 2025, απευθύνεται τόσο σε μεμονωμένα κράτη όσο και σε διεθνείς θεσμούς, καλώντας σε συντονισμένη δράση για την αποτροπή ανεξέλεγκτης ανάπτυξης συστημάτων με δυνατότητες που ξεπερνούν την ανθρώπινη αντίληψη.
Γιατί Χρειαζόμαστε Παγκόσμιο «Πάγωμα» Τώρα
Η πρόταση επισημαίνει πως χώρες όπως οι Ηνωμένες Πολιτείες – και ειδικά η Καλιφόρνια, έδρα των σημαντικότερων εταιρειών AI παγκοσμίως – μπορούν και οφείλουν να εφαρμόσουν μονομερώς αυτό το πάγωμα. Το ίδιο ισχύει για οποιαδήποτε άλλη χώρα διαθέτει τη σχετική τεχνολογική ικανότητα.
Η δημόσια υποστήριξη για μια τέτοια παύση στις ΗΠΑ, σύμφωνα με την πρωτοβουλία, κυμαίνεται μεταξύ 64% και 69%. Ωστόσο, αναγνωρίζεται ότι κανένα κράτος ή εταιρεία δεν θα διακινδυνεύσει να μείνει πίσω στον ανταγωνισμό, εάν άλλοι συνεχίσουν ανεξέλεγκτα. Γι’ αυτό και η ανάγκη για μια παγκόσμια συμφωνία θεωρείται επιτακτική.
Προς μια Διεθνή Συνθήκη – Ένα Νέο Μοντέλο Συνεργασίας
Η πρόταση του PauseAI υπογραμμίζει την ανάγκη για μια διεθνή συνθήκη, παρόμοια με εκείνη για τα πυρηνικά, που θα περιλαμβάνει τους εξής βασικούς άξονες:
-
Συμμετοχή τόσο των ΗΠΑ όσο και της Κίνας.
-
Μηχανισμός χωρίς δυνατότητα βέτο από μία μόνο χώρα.
-
Γρήγορη σύναψη, καθώς οι παραδοσιακές διαδικασίες διαρκούν χρόνια – πολυτέλεια που δεν υπάρχει πλέον.
Παρά τις μέχρι στιγμής τρεις διεθνείς συνόδους κορυφής για την ασφάλεια της AI, δεν έχει επιτευχθεί καμία νομικά δεσμευτική απόφαση. Η πρωτοβουλία θεωρεί ότι είναι ώρα να αλλάξει αυτό.
Προτεινόμενα Μέτρα της Συνθήκης
Η πρόταση περιλαμβάνει συγκεκριμένα μέτρα που θα μπορούσαν να υιοθετηθούν μέσω μιας διεθνούς συνθήκης:
-
Ίδρυση Διεθνούς Οργανισμού Ασφάλειας AI, κατά τα πρότυπα της Διεθνούς Υπηρεσίας Ατομικής Ενέργειας (IAEA), ο οποίος θα:
-
Εγκρίνει ή απορρίπτει αναπτύξεις συστημάτων AI.
-
Αξιολογεί νέα εκπαιδευτικά μοντέλα άνω συγκεκριμένου μεγέθους (π.χ. 1 δισεκατομμύριο παραμέτρους).
-
Εποπτεύει την πρόοδο της έρευνας ασφάλειας της AI.
-
-
Απαγόρευση εκπαίδευσης γενικών AI (General AI) εάν δεν μπορούν να αποδειχθούν ασφαλείς. Τα μοντέλα που εμπίπτουν σε αυτόν τον ορισμό είναι:
-
Όσα ξεπερνούν τα 10¹² παραμέτρους.
-
Όσα έχουν χρησιμοποιήσει πάνω από 10²⁵ FLOPs για την εκπαίδευσή τους.
-
Όσα ξεπερνούν το 86% στο τεστ MMLU (Multi-task Language Understanding).
-
-
Διαρκής παρακολούθηση εκπαιδευτικών διαδικασιών, με μέσα όπως:
-
Εντοπισμός GPU.
-
Ενεργειακή παρακολούθηση.
-
Έλεγχος κέντρων δεδομένων.
-
Επιθεώρηση παραγωγών ημιαγωγών.
-
Ανώνυμες καταγγελίες (whistleblowing).
-
-
Απαγόρευση ανάπτυξης και χρήσης μοντέλων χωρίς προηγούμενη αξιολόγηση κινδύνου και επικύρωση ότι δεν περιλαμβάνουν επικίνδυνες ικανότητες (π.χ. αυτόνομο hacking ή κατασκευή βιολογικών όπλων).
Νομικές & Πολιτικές Παρεμβάσεις για την Καθυστέρηση της Ανάπτυξης
Η πρωτοβουλία περιλαμβάνει και επιπλέον μέτρα που μπορούν να επιβραδύνουν την αχαλίνωτη πρόοδο:
-
Απαγόρευση χρήσης πνευματικά προστατευμένου υλικού για εκπαίδευση AI.
-
Νομική ευθύνη δημιουργών AI για εγκληματικές χρήσεις των συστημάτων τους.
-
Περιορισμός στη δημοσιοποίηση αλγορίθμων που μειώνουν δραστικά το κόστος εκπαίδευσης (όπως έγινε με τον Transformer).
-
Περιορισμοί στην τεχνολογική πρόοδο hardware, ώστε να αποτραπεί η δυνατότητα εκπαίδευσης υπερ-νοημόνων μοντέλων σε καταναλωτικό εξοπλισμό.
Το Πρόβλημα της Προσβασιμότητας και της Κλίμακας
Όπως σημειώνει η πρόταση του PauseAI, σήμερα η εκπαίδευση μοντέλων μεγέθους GPT-3 κοστίζει εκατομμύρια δολάρια. Όμως το κόστος αυτό μειώνεται με εκθετικό ρυθμό λόγω βελτίωσης hardware και αλγορίθμων. Αναμένεται ότι πολύ σύντομα, υπερ-ικανές AI θα μπορούν να εκπαιδευτούν με λίγα μόνο χιλιάδες δολάρια ή ακόμη και σε οικιακούς υπολογιστές.
Σε αυτό το πλαίσιο, η PauseAI προτείνει:
-
Περιορισμούς στη σχεδίαση προηγμένων chip (φωτονικών, κβαντικών κ.λπ.).
-
Μηχανισμούς ελέγχου δημοσιεύσεων και τεχνολογικής διάχυσης.
Η Έκκληση της PauseAI: Παγκόσμια Συμμετοχή Τώρα
Η PauseAI καλεί επιστήμονες, πολίτες, οργανώσεις και κυβερνήσεις να στηρίξουν την προσπάθεια ή να δράσουν αυτόνομα. Όπως προειδοποιούν οι συντάκτες της πρότασης:
«Η παύση της ανάπτυξης AI μπορεί να αποτύχει αν δεν εφαρμοστεί σωστά. Το ρίσκο είναι πολύ μεγάλο για να το αφήσουμε στην τύχη».
Το πλήρες κείμενο της πρότασης και πρόσθετες τεχνικές λεπτομέρειες για την παρακολούθηση της παγκόσμιας αλυσίδας παραγωγής AI chips είναι διαθέσιμα στην ανάλυση “Building the Pause Button” της ομάδας.
Μάθετε περισσότερα και συμμετέχετε στην πρωτοβουλία πατώντας ΕΔΩ.