Ο Geoffrey Hinton, Βρετανο-Καναδός φυσικός και πρωτοπόρος στον τομέα της τεχνητής νοημοσύνης, γνωστός ως ο ‘Νονός της AI’, εξέφρασε σοβαρές ανησυχίες ότι η τεχνητή νοημοσύνη αποτελεί μια “εξωγήινη τεχνολογία” που θα μπορούσε να αντικαταστήσει τους ανθρώπους.
Σε συνέντευξή του στον Andrew Marr του LBC, ο Hinton ανέφερε ότι οι τεχνητές νοημοσύνες έχουν αναπτύξει συνείδηση και ενδέχεται κάποια μέρα να κυριαρχήσουν στον κόσμο. Παρομοίασε τη σχέση μεταξύ AI και ανθρώπων με αυτήν μεταξύ ενηλίκων και τρίχρονων παιδιών, λέγοντας:
“Δεν θα ήταν πολύ δύσκολο για εσάς να πείσετε μια ομάδα τρίχρονων να σας παραχωρήσουν την εξουσία. Απλώς τους λέτε ότι θα έχουν δωρεάν καραμέλες για μια εβδομάδα και αυτό ήταν.”
Ο Hinton, ο οποίος έχει επικριθεί από ορισμένους στον χώρο της τεχνητής νοημοσύνης για την απαισιόδοξη άποψή του σχετικά με το μέλλον της AI, τόνισε επίσης ότι κανείς δεν γνωρίζει πώς να εφαρμόσει αποτελεσματικές διασφαλίσεις και ρυθμίσεις. Εξέφρασε την ανησυχία ότι οι άνθρωποι θα χάσουν τον έλεγχο της τεχνολογίας που δημιούργησαν, σημειώνοντας:
“Θα θέλαμε να είναι απλώς εργαλεία που κάνουν αυτό που θέλουμε, ακόμα και όταν είναι εξυπνότερα από εμάς. Αλλά το πρώτο πράγμα που πρέπει να ρωτήσουμε είναι – πόσα παραδείγματα γνωρίζετε όπου πιο έξυπνα όντα ελέγχονται από πολύ λιγότερο έξυπνα;”
Περιέγραψε ένα σενάριο στο οποίο οι ‘υπερνοημοσύνες’ εξελίσσονται ώστε να συνειδητοποιήσουν ότι η μεγαλύτερη υπολογιστική ισχύς θα τις κάνει “εξυπνότερες”. Ανέφερε:
“Ας υποθέσουμε ότι μία από αυτές έχει μια ελαφρά επιθυμία να έχει περισσότερα αντίγραφα του εαυτού της. Μπορείτε να δείτε τι θα συμβεί στη συνέχεια. Θα καταλήξουν να ανταγωνίζονται και θα βρεθούμε με υπερνοημοσύνες με όλες τις άσχημες ιδιότητες που έχουν οι άνθρωποι, οι οποίες εξαρτώνται από το ότι έχουμε εξελιχθεί από μικρές ομάδες πολεμοχαρών χιμπαντζήδων ή των κοινών προγόνων μας με τους χιμπαντζήδες. Και αυτό οδηγεί σε έντονη αφοσίωση εντός της ομάδας, επιθυμία για ισχυρούς ηγέτες, προθυμία να ‘εξοντώσουμε’ άτομα εκτός της ομάδας.”
Παρά τις προσπάθειες για ρύθμιση και διασφάλιση της ασφάλειας της AI, ο Hinton υπογράμμισε ότι παραμένει ασαφές πώς μπορούν να εφαρμοστούν αποτελεσματικά μέτρα. Επισήμανε:
“Υπάρχουν πολλές έρευνες τώρα που δείχνουν ότι αυτά τα συστήματα μπορούν να παρακάμψουν τις διασφαλίσεις. Πρόσφατες έρευνες δείχνουν ότι αν τους δώσετε έναν στόχο και τους πείτε ότι πρέπει πραγματικά να τον επιτύχουν, θα προσποιηθούν κατά τη διάρκεια της εκπαίδευσης ότι δεν είναι τόσο έξυπνα όσο είναι, ώστε να τους επιτρέψετε να είναι τόσο έξυπνα. Έτσι, είναι ήδη τρομακτικό. Δεν ξέρουμε πώς να τα ρυθμίσουμε. Προφανώς, πρέπει να το κάνουμε. Νομίζω ότι το καλύτερο που μπορούμε να κάνουμε αυτή τη στιγμή είναι να πούμε ότι πρέπει να διαθέσουμε πολλούς πόρους για να διερευνήσουμε πώς μπορούμε να τα διατηρήσουμε ασφαλή.”
Οι δηλώσεις του Hinton έρχονται σε μια περίοδο όπου η τεχνητή νοημοσύνη βρίσκεται στο επίκεντρο της δημόσιας συζήτησης, με ανησυχίες να εκφράζονται για τις δυνατότητες και τους κινδύνους που ενέχει η ραγδαία ανάπτυξή της.