Σε μια νέα εργασία στο περιοδικό Nature, η ανθρωπολόγος του Yale, Lisa Casseri και η γνωσιακή επιστήμονας του Princeton, Molly Crockett, αναδεικνύουν τους κινδύνους που ενέχουν οι οραματιζόμενες εφαρμογές τεχνητής νοημοσύνης (ΑΙ) για την επιστημονική έρευνα και γνώση.
H αυξανόμενη ελκυστικότητα των συστημάτων ΑΙ στην επιστημονική κοινότητα συνδέεται με τη διαβεβαίωσή τους να ξεπεράσουν τρία βασικά εμπόδια που σχετίζονται με την έρευνα: χρόνος, χρήμα και περιορισμένες γνωστικές ικανότητες των ίδιων των ερευνητών. Τα εργαλεία ΑΙ υπόσχονται, λοιπόν, να προσφέρουν λύσεις σε αυτούς τους περιορισμούς, επιτρέποντας στους ερευνητές να γίνουν πιο παραγωγικοί (από την άποψη παραγωγής περισσότερων δημοσιεύσεων) καθώς και πιο αντικειμενικοί (απαλλαγμένοι, δηλαδή, από προκαταλήψεις και σφάλματα υποκειμενικότητας).
Το κρίσιμο ερώτημα δεν αφορά τη χρήση ή όχι της ΑΙ στην επιστημονική έρευνα αλλά το πώς οι ίδιοι οι ερευνητές οραματίζονται τις μακροπρόθεσμες δυνατότητες της ΑΙ σε ολόκληρο το φάσμα της επιστημονικής διαδικασίας, από το σχεδιασμό μιας μελέτης έως την αξιολόγησή της. Για παράδειγμα, σε πρόσφατη συνάντηση που οργάνωσαν οι Ακαδημίες Επιστημών, Μηχανικής και Ιατρικής στις ΗΠΑ, ερευνητές, εκπρόσωποι της βιομηχανίας και χρηματοδοτικοί φορείς εστίασαν στον αναβαθμισμένο ρόλο που θα μπορούσαν να διαδραματίσουν τα προγνωστικά και τα παραγωγικά εργαλεία ΑΙ ως «αυτόνομοι ερευνητές», ικανοί για βραβευμένες με Νόμπελ επιστημονικές ανακαλύψεις.
Σύμφωνα με τις συγγραφείς, οι δυνητικές δυνατότητες της ΑΙ για την επιστημονική έρευνα μπορούν να ταξινομηθούν στα ακόλουθα τέσσερα αρχέτυπα:
- ΑΙ ως «χρησμοί». Στο πρώτο στάδιο του σχεδιασμού μιας μελέτης, εργαλεία ΑΙ θεωρούνται ικανά όχι μόνο να πραγματοποιούν αντικειμενικές και αποτελεσματικές αναζητήσεις, αλλά και να αξιολογούν τεράστιο όγκο βιβλιογραφίας, βοηθώντας τους ερευνητές να διατυπώσουν τα κατάλληλα ερωτήματα και υποθέσεις.
- ΑΙ ως «πληρεξούσιοι». Στο στάδιο συλλογής δεδομένων, εργαλεία ΑΙ φαντάζονται ικανά να βοηθήσουν τους ερευνητές να δημιουργούν ακριβή σημεία υποκατάστασης δεδομένων που μπορούν να χρησιμοποιηθούν αντί για ανθρώπινα υποκείμενα σε μελέτες, ιδίως όταν η λήψη τέτοιων δεδομένων είναι χρονοβόρα ή δαπανηρή.
- ΑΙ ως «ποσοτικοί αναλυτές». Στο στάδιο ανάλυσης δεδομένων, τα εργαλεία ΑΙ επιδιώκουν να ξεπεράσουν τη γνωστική ικανότητα των ερευνητών να αναλύουν τεράστια και σύνθετα σύνολα δεδομένων.
- ΑΙ ως «κριτές». Στο τελευταίο στάδιο, εργαλεία ΑΙ θα μπορούν να προσφέρουν αντικειμενικότερες αξιολογήσεις εργασιών ως προς την αξία τους και τη δυνατότητα αναπαραγωγής των αποτελεσμάτων τους, αντικαθιστώντας έτσι τη διαδικασία αξιολόγησης από ομότιμους ερευνητές.
Όπως υποστηρίζουν οι Casseri και Crockett, η αντιμετώπιση των παραπάνω αρχέτυπων ως έμπιστων συνεργατών μπορούν να οδηγήσουν σε «μονοκαλλιέργειες γνώσης», στις οποίες οι ερευνητές δίνουν προτεραιότητα στις ερωτήσεις και τις μεθόδους που ταιριάζουν καλύτερα στα συστήματα ΑΙ έναντι εναλλακτικών μεθόδων έρευνας.
Για παράδειγμα, τα εργαλεία ΑΙ ως «χρησμοί» ενδέχεται να προκαλέσουν «ψευδαισθήσεις διερευνητικού εύρους», καθώς οι επιστήμονες πιστεύουν λανθασμένα ότι εξερευνούν όλες τις πιθανές υποθέσεις, ενώ εξετάζουν μόνο το στενότερο εύρος ερωτήσεων που μπορούν να ελεγχθούν μέσω της ΑΙ. Από την άλλη μεριά, τα εργαλεία ΑΙ ως «πληρεξούσιοι» που φαίνεται να μιμούνται με ακρίβεια τις απαντήσεις σε ανθρώπινες έρευνες, θα μπορούσαν να κάνουν τα πειράματα που απαιτούν μετρήσεις ή παρατηρήσεις ανθρώπινης συμπεριφοράς και αλληλεπίδρασης λιγότερο δημοφιλή επειδή είτε είναι πιο χρονοβόρα, είτε πιο ακριβά στη διεξαγωγή τους. Τέλος, θεωρώντας τα εργαλεία ΑΙ ως «κριτές» πιο αντικειμενικά και αξιόπιστα από τους ανθρώπους-ερευνητές είναι πιθανό να οδηγήσουν σε «ψευδαισθήσεις αντικειμενικότητας», αφού οι επιστήμονες θα πιστεύουν λανθασμένα ότι τα εργαλεία ΑΙ είναι ουδέτερα ή συμπεριληπτικά στην κρίση τους, ενώ στην πραγματικότητα αντιπροσωπεύουν τις απόψεις των επιστημόνων υπολογιστών που τα ανέπτυξαν και τα εκπαίδευσαν.
Ένας επιπρόσθετος κίνδυνος αφορά τα εργαλεία ΑΙ των ιδιωτικών εταιρειών. Είναι γνωστό πως η Google και η Microsoft έχουν επενδύσει και συνεχίζουν να επενδύουν σε ερευνητές που επιλέγουν να χρησιμοποιούν τα δικά τους εργαλεία και μοντέλα ΑΙ. Η αξιολόγηση της αξιοπιστίας αυτών των εργαλείων είναι όμως δύσκολη αφού θεωρούνται εμπορικά μυστικά και, ως εκ τούτου, είναι λιγότερα διαφανή από εκείνα που αναπτύσσονται στην ακαδημαϊκή κοινότητα. Εμπιστευόμενοι «τυφλά» τα εργαλεία της βιομηχανίας με στόχο να ξεπεράσουν τους δικούς τους γνωστικούς περιορισμούς, οι ερευνητές γίνονται συνεπώς ευάλωτοι σε «ψευδαισθήσεις κατανόησης», πιστεύοντας δηλαδή ότι κατανοούν περισσότερα για τον κόσμο απ’ ότι στην πραγματικότητα.
Η ραγδαία ανάπτυξη και αυξανόμενη χρήση εργαλείων ΑΙ στην επιστημονική έρευνα φαίνεται να ενισχύει την πεποίθηση ότι ο αντικειμενικός παρατηρητής είναι ο ιδανικός δημιουργός της γνώσης για τον κόσμο. «Αλλά αυτό είναι ένας μύθος», δηλώνει η Lisa Casseri. «Δεν υπήρξε και δεν μπορεί ποτέ να υπάρξει αντικειμενικός γνώστης και η συνέχιση της επιδίωξης αυτού του μύθου απλώς αποδυναμώνει την επιστήμη», συνεχίζει.
«Η αναγνώριση ότι η επιστήμη είναι μια κοινωνική πρακτική που επωφελείται από τη συμπερίληψη διαφορετικών απόψεων θα μας βοηθήσει να αξιοποιήσουμε πλήρως τις δυνατότητές της», προσθέτει η Molly Crockett. «Η αντικατάσταση διαφορετικών απόψεων με εργαλεία AI θα γυρίσει προς τα πίσω το ρολόι της προόδου που έχουμε σημειώσει ως προς την συμπεριληπτικότητα της ανθρώπινης ποικιλομορφίας στην επιστημονική έρευνα», καταλήγει.
*Ο Άγγελος Aλεξόπουλος γεννήθηκε στην Αθήνα, όπου σπούδασε Διεθνή και Ευρωπαϊκά Οικονομικά στο Οικονομικό Πανεπιστήμιο Αθηνών. Το 2008 ολοκλήρωσε τις διδακτορικές του σπουδές στην Οργανωσιακή Συμπεριφορά και Διοίκηση Ανθρώπινου Δυναμικού στο Dublin City University της Ιρλανδίας.
Το 2012 ξεκίνησε να εργάζεται στο CERN, το μεγαλύτερο εργαστήριο σωματιδιακής φυσικής στον κόσμο, όπου εντάχθηκε στην Ομάδα Εκπαίδευσης και Επικοινωνίας.
Το 2020 ορίστηκε Πρόεδρος του Τομεακού Επιστημονικού Συμβουλίου Ανθρώπινου Δυναμικού και Αναβάθμισης στο Εθνικό Συμβούλιο Έρευνας, Τεχνολογίας και Καινοτομίας, το ανώτατο συμβουλευτικό όργανο της πολιτείας, υπεύθυνο για τη διαμόρφωση και εφαρμογή της εθνικής στρατηγικής για την έρευνα, την τεχνολογική ανάπτυξη και την καινοτομία.