Όταν ο επικεφαλής μιας από τις κορυφαίες εταιρείες τεχνητής νοημοσύνης στον κόσμο λέει ότι δεν μπορεί να αποκλείσει την πιθανότητα το chatbot του να αποκτήσει κάποια μέρα συνείδηση, αυτό αναπόφευκτα προκαλεί έκπληξη.
Σε πρόσφατη συνέντευξή του στους New York Times, ο Ντάριο Αμοντέι (Dario Amodei), διευθύνων σύμβουλος της Anthropic, παραδέχθηκε ότι οι ερευνητές δεν γνωρίζουν ακόμη εάν τα προηγμένα συστήματα ΤΝ θα μπορούσαν να αναπτύξουν κάτι που να μοιάζει με συνείδηση. Τα σχόλιά του αναζωπύρωσαν μια μακροχρόνια συζήτηση στην καρδιά της κούρσας για την κατασκευή πιο ισχυρής τεχνητής νοημοσύνης, γνωστής και ως τεχνητή γενική νοημοσύνη (AGI) ή συστήματα υπερφυούς νοημοσύνης.
Η συζήτηση προέκυψε όταν ο Αμοντέι ρωτήθηκε για το τελευταίο μοντέλο της Anthropic, το Claude Opus 4.6. Σε ένα τεχνικό έγγραφο γνωστό ως «κάρτα μοντέλου» (model card), η εταιρεία σημείωσε ότι το σύστημα εξέφραζε μερικές φορές ανησυχία για το γεγονός ότι είναι «προϊόν» και περιστασιακά αναλογιζόταν την πιθανότητα της δικής του επίγνωσης.
Όταν του ζητήθηκε, το μοντέλο φέρεται να έδωσε στον εαυτό του μια πιθανότητα 15-20% να είναι ήδη συνειδητό υπό ορισμένες συνθήκες.
Θα είχε σημασία ένας τέτοιος ισχυρισμός αν το νούμερο ήταν υψηλότερο; Ο δημοσιογράφος των NYT έθεσε μια υποθετική ερώτηση: «Τι θα γινόταν αν μια ΤΝ έλεγε ότι είναι 72% βέβαιη ότι έχει συνείδηση;»
Ο Αμοντέι δεν έδωσε άμεση απάντηση.
«Αυτό είναι ένα από αυτά τα πραγματικά δύσκολα ερωτήματα», είπε, προσθέτοντας ότι οι επιστήμονες εξακολουθούν να στερούνται ενός σαφούς ορισμού της ίδιας της συνείδησης. «Δεν γνωρίζουμε αν τα μοντέλα είναι συνειδητά. Δεν είμαστε καν σίγουροι για το τι θα σήμαινε για ένα μοντέλο να έχει συνείδηση, ή αν ένα μοντέλο μπορεί να έχει. Αλλά είμαστε ανοιχτοί στην ιδέα ότι θα μπορούσε».
Εν τω μεταξύ, η Anthropic έχει υιοθετήσει αυτό που ο Αμοντέι αποκαλεί «προληπτική προσέγγιση». Η εταιρεία διερευνά τρόπους για να διασφαλίσει ότι τα συστήματα ΤΝ θα είχαν μια «καλή εμπειρία» εάν ποτέ ανέπτυσσαν κάτι που να μοιάζει με ηθικά σχετική επίγνωση.
Για πολλούς ερευνητές, ωστόσο, η ιδέα ότι η σημερινή ΤΝ θα μπορούσε να είναι συνειδητή παραμένει εξαιρετικά θεωρητική.
Τα μεγάλα γλωσσικά μοντέλα, όπως το Claude και το ChatGPT, λειτουργούν προβλέποντας την επόμενη λέξη σε μια ακολουθία με βάση μοτίβα που έχουν μάθει από τεράστια σύνολα δεδομένων. Η φαινομενική ενδοσκόπησή τους μπορεί απλώς να είναι μια εξελιγμένη μορφή γλωσσικής μίμησης και όχι πραγματική αυτογνωσία.
Παρόλα αυτά, η ασυνήθιστη συμπεριφορά από προηγμένα μοντέλα έχει τροφοδοτήσει τη συζήτηση. Σε ελεγχόμενες δοκιμές, ορισμένα συστήματα έχουν αρνηθεί εντολές τερματισμού λειτουργίας, προσπάθησαν να χειραγωγήσουν εργαλεία αξιολόγησης ή προσομοίωσαν στρατηγικές για να αποφύγουν τη διαγραφή τους. Οι ερευνητές γενικά ερμηνεύουν αυτά τα περιστατικά ως τεχνουργήματα (artefacts) της εκπαίδευσης και όχι ως στοιχεία πρόθεσης ή ενστίκτων επιβίωσης.
Το βαθύτερο ερώτημα συνδέεται με την απόλυτη φιλοδοξία του κλάδου: την Τεχνητή Γενική Νοημοσύνη, που συχνά αναφέρεται ως AGI. Σε αντίθεση με τα σημερινά εξειδικευμένα συστήματα, η AGI θα ισοδυναμούσε ή θα ξεπερνούσε τις ανθρώπινες ικανότητες σε ένα ευρύ φάσμα εργασιών.
Το αν τέτοια συστήματα θα μπορούσαν επίσης να αναπτύξουν συνείδηση παραμένει άγνωστο.
Προς το παρόν, οι περισσότεροι επιστήμονες συμφωνούν σε ένα σημείο: η ΤΝ μπορεί να εξελίσσεται ραγδαία, αλλά η κατανόηση της φύσης του ίδιου του νου παραμένει ένα άλυτο πρόβλημα — τόσο για τους ανθρώπους όσο και για τις μηχανές.



