Η τεχνητή νοημοσύνη θα μπορούσε να οδηγήσει στην εξαφάνιση της ανθρωπότητας, προειδοποιούν ειδικοί – συμπεριλαμβανομένων των επικεφαλής του OpenAI και της Google Deepmind.
Δεκάδες ειδικοί προσυπογράφουν την προειδοποίηση που δημοσιεύτηκε στην ιστοσελίδα του Κέντρου για την Ασφάλεια της Τεχνητής Νοημοσύνης, επισημαίνει το BBC.
«Ο μετριασμός του κινδύνου εξαφάνισης λόγω της τεχνητής νοημοσύνης θα πρέπει να αποτελεί παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος», αναφέρεται σε δήλωση που δημοσιεύθηκε σήμερα από το μη κερδοσκοπικό Κέντρο για την Ασφάλεια της Τεχνητής Νοημοσύνης.
Μεταξύ αυτών που συνυπογράφουν βρίσκεται ο διευθύνων σύμβουλος της OpenAI Sam Altman και ο διευθύνων σύμβουλος της Google DeepMind Demis Hassabis.
Η ιδέα ότι η Τεχνητή Νοημοσύνη μπορεί να καταστεί δύσκολο να ελεγχθεί και να καταστρέψει είτε κατά λάθος είτε σκόπιμα την ανθρωπότητα, έχει συζητηθεί εδώ και καιρό από τους φιλοσόφους. Αλλά τους τελευταίους έξι μήνες, μετά από κάποια εκπληκτικά άλματα στις επιδόσεις των αλγορίθμων της τεχνητής νοημοσύνης, το θέμα έχει συζητηθεί πολύ πιο ευρέως και σοβαρά.
Εκτός από τους Altman και Hassabis, τη δήλωση υπογράφει ο Dario Amodei, διευθύνων σύμβουλος της Anthropic, μιας startup που έχει ως στόχο την ανάπτυξη της τεχνητής νοημοσύνης με έμφαση στην ασφάλεια. Άλλοι υπογράφοντες είναι ο Geoffrey Hinton και ο Yoshua Bengio –δύο από τους τρεις ακαδημαϊκούς που έλαβαν το βραβείο Turing για το έργο τους στη βαθιά μάθηση, την τεχνολογία που στηρίζει τις σύγχρονες εξελίξεις στη μηχανική μάθηση και την ΤΝ– καθώς και δεκάδες επιχειρηματίες και ερευνητές που εργάζονται σε προβλήματα αιχμής της ΤΝ.
“Η δήλωση είναι μια σπουδαία πρωτοβουλία“, λέει ο Μαξ Τέγκμαρκ, καθηγητής φυσικής στο Ινστιτούτο Τεχνολογίας της Μασαχουσέτης και διευθυντής του Future of Life Institute, ενός μη κερδοσκοπικού οργανισμού που επικεντρώνεται στους μακροπρόθεσμους κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη. Τον Μάρτιο, το Ινστιτούτο του Tegmark δημοσίευσε επιστολή με την οποία ζητούσε εξάμηνη παύση στην ανάπτυξη αλγορίθμων τεχνητής νοημοσύνης αιχμής, ώστε να εκτιμηθούν οι κίνδυνοι. Η επιστολή υπογράφηκε από εκατοντάδες ερευνητές και στελέχη της ΤΝ, συμπεριλαμβανομένου του Elon Musk.
Ο Tegmark λέει ότι ελπίζει ότι η δήλωση θα ενθαρρύνει τις κυβερνήσεις και το ευρύ κοινό να λάβουν πιο σοβαρά υπόψη τους υπαρξιακούς κινδύνους της τεχνητής νοημοσύνης. “Το ιδανικό αποτέλεσμα είναι ότι η απειλή της εξαφάνισης της ΤΝ γίνεται mainstream, επιτρέποντας σε όλους να τη συζητούν χωρίς το φόβο της χλεύης“, προσθέτει.
Ο Dan Hendrycks, διευθυντής του Κέντρου για την Ασφάλεια της Τεχνητής Νοημοσύνης, παρομοίασε την τρέχουσα στιγμή της ανησυχίας για την Τεχνητή Νοημοσύνη με τη συζήτηση μεταξύ των επιστημόνων που πυροδότησε η δημιουργία των πυρηνικών όπλων. “Πρέπει να κάνουμε τις συζητήσεις που έκαναν οι πυρηνικοί επιστήμονες πριν από τη δημιουργία της ατομικής βόμβας“, δήλωσε ο Hendrycks σε ένα απόσπασμα που εκδόθηκε μαζί με την ανακοίνωση της οργάνωσής του.
Ο σημερινός τόνος συναγερμού συνδέεται με διάφορα άλματα στις επιδόσεις των αλγορίθμων τεχνητής νοημοσύνης που είναι γνωστοί ως μεγάλα γλωσσικά μοντέλα. Τα μοντέλα αυτά αποτελούνται από ένα συγκεκριμένο είδος τεχνητού νευρωνικού δικτύου που εκπαιδεύεται σε τεράστιες ποσότητες ανθρώπινου κειμένου για να προβλέψει τις λέξεις που πρέπει να ακολουθήσουν μια δεδομένη συμβολοσειρά. Όταν τροφοδοτούνται με αρκετά δεδομένα και με πρόσθετη εκπαίδευση με τη μορφή ανατροφοδότησης από ανθρώπους σχετικά με τις καλές και τις κακές απαντήσεις, αυτά τα γλωσσικά μοντέλα είναι σε θέση να παράγουν κείμενο και να απαντούν σε ερωτήσεις με αξιοσημείωτη ευγλωττία και προφανή γνώση – ακόμη και αν οι απαντήσεις τους είναι συχνά γεμάτες λάθη.
Αυτά τα γλωσσικά μοντέλα έχουν αποδειχθεί όλο και πιο συνεκτικά και ικανά καθώς τροφοδοτούνται με περισσότερα δεδομένα και ισχύ υπολογιστή. Το ισχυρότερο μοντέλο που έχει δημιουργηθεί μέχρι στιγμής, το GPT–4 της OpenAI, είναι σε θέση να επιλύει πολύπλοκα προβλήματα, συμπεριλαμβανομένων εκείνων που φαίνεται να απαιτούν κάποιες μορφές αφαίρεσης και συλλογισμού με κοινή λογική.
Τα γλωσσικά μοντέλα γίνονταν όλο και πιο ικανά τα τελευταία χρόνια, αλλά η κυκλοφορία του ChatGPT τον περασμένο Νοέμβριο τράβηξε την προσοχή του κοινού στη δύναμη –και τα πιθανά προβλήματα– των τελευταίων προγραμμάτων τεχνητής νοημοσύνης. Το ChatGPT και άλλα προηγμένα chatbots μπορούν να διεξάγουν συνεκτικές συνομιλίες και να απαντούν σε κάθε είδους ερωτήσεις με την εμφάνιση πραγματικής κατανόησης. Αλλά αυτά τα προγράμματα παρουσιάζουν επίσης προκαταλήψεις, κατασκευάζουν γεγονότα και μπορούν να οδηγηθούν σε παράξενες και δυσάρεστες συμπεριφορές.
Ο Geoffrey Hinton, ο οποίος θεωρείται ευρέως ως μία από τις πιο σημαντικές και επιδραστικές προσωπικότητες στον τομέα της τεχνητής νοημοσύνης, άφησε τη θέση του στη Google τον Απρίλιο προκειμένου να μιλήσει για τη νεοαποκτηθείσα ανησυχία του σχετικά με την προοπτική μιας ολοένα και πιο ικανής τεχνητής νοημοσύνης που τρέχει σε αμόκ.
Οι εθνικές κυβερνήσεις εστιάζουν όλο και περισσότερο στους πιθανούς κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη και στον τρόπο με τον οποίο θα μπορούσε να ρυθμιστεί η τεχνολογία. Αν και οι ρυθμιστικές αρχές ανησυχούν κυρίως για ζητήματα όπως η παραπληροφόρηση που δημιουργείται από την ΤΝ και η εκτόπιση θέσεων εργασίας, έχει γίνει κάποια συζήτηση για υπαρξιακές ανησυχίες.
“Σύμφωνα με ορισμένους ειδικούς, όσα συμβαίνουν στην Γάζα έχουν χαρακτηριστικά γενοκτονίας. Θα έπρεπε να πραγματοποιηθεί…
Σοβαρή εξέλιξη στις ΗΠΑ, καθώς η αμερικανική κυβέρνηση του Τζο Μπάιντεν - λίγες μόλις εβδομάδες πριν αποχωρήσει…
Κάθε φορά που πλησιάζει η επέτειος της μεγαλειώδους λαϊκής εξέγερσης του Πολυτεχνείου, εμφανίζονται οι γνωστοί –…
Στο πλαίσιο του κύκλου Διαδικτυακές Συναντήσεις που διοργανώνει ο Όμιλος Φίλων του ποιητή Μανόλη Αναγνωστάκη…
Eπίσημη επίσκεψη αντιπροσωπείας του Nanjing University of Aeronautics and Astronautics (NUAA) πραγματοποιήθηκε στο Πανεπιστημίου Κρήτης,…
Σε ανάρτηση προέβη ο Θοδωρής Κολυδάς, μετεωρολόγος και διευθυντής της Εθνικής Μετεωρολογικής Υπηρεσίας, με αφορμή…
This website uses cookies.