Σε μια νέα εργασία στο περιοδικό Nature, η ανθρωπολόγος του Yale, Lisa Casseri και η γνωσιακή επιστήμονας του Princeton, Molly Crockett, αναδεικνύουν τους κινδύνους που ενέχουν οι οραματιζόμενες εφαρμογές τεχνητής νοημοσύνης (ΑΙ) για την επιστημονική έρευνα και γνώση.
H αυξανόμενη ελκυστικότητα των συστημάτων ΑΙ στην επιστημονική κοινότητα συνδέεται με τη διαβεβαίωσή τους να ξεπεράσουν τρία βασικά εμπόδια που σχετίζονται με την έρευνα: χρόνος, χρήμα και περιορισμένες γνωστικές ικανότητες των ίδιων των ερευνητών. Τα εργαλεία ΑΙ υπόσχονται, λοιπόν, να προσφέρουν λύσεις σε αυτούς τους περιορισμούς, επιτρέποντας στους ερευνητές να γίνουν πιο παραγωγικοί (από την άποψη παραγωγής περισσότερων δημοσιεύσεων) καθώς και πιο αντικειμενικοί (απαλλαγμένοι, δηλαδή, από προκαταλήψεις και σφάλματα υποκειμενικότητας).
Το κρίσιμο ερώτημα δεν αφορά τη χρήση ή όχι της ΑΙ στην επιστημονική έρευνα αλλά το πώς οι ίδιοι οι ερευνητές οραματίζονται τις μακροπρόθεσμες δυνατότητες της ΑΙ σε ολόκληρο το φάσμα της επιστημονικής διαδικασίας, από το σχεδιασμό μιας μελέτης έως την αξιολόγησή της. Για παράδειγμα, σε πρόσφατη συνάντηση που οργάνωσαν οι Ακαδημίες Επιστημών, Μηχανικής και Ιατρικής στις ΗΠΑ, ερευνητές, εκπρόσωποι της βιομηχανίας και χρηματοδοτικοί φορείς εστίασαν στον αναβαθμισμένο ρόλο που θα μπορούσαν να διαδραματίσουν τα προγνωστικά και τα παραγωγικά εργαλεία ΑΙ ως «αυτόνομοι ερευνητές», ικανοί για βραβευμένες με Νόμπελ επιστημονικές ανακαλύψεις.
Σύμφωνα με τις συγγραφείς, οι δυνητικές δυνατότητες της ΑΙ για την επιστημονική έρευνα μπορούν να ταξινομηθούν στα ακόλουθα τέσσερα αρχέτυπα:
Όπως υποστηρίζουν οι Casseri και Crockett, η αντιμετώπιση των παραπάνω αρχέτυπων ως έμπιστων συνεργατών μπορούν να οδηγήσουν σε «μονοκαλλιέργειες γνώσης», στις οποίες οι ερευνητές δίνουν προτεραιότητα στις ερωτήσεις και τις μεθόδους που ταιριάζουν καλύτερα στα συστήματα ΑΙ έναντι εναλλακτικών μεθόδων έρευνας.
Για παράδειγμα, τα εργαλεία ΑΙ ως «χρησμοί» ενδέχεται να προκαλέσουν «ψευδαισθήσεις διερευνητικού εύρους», καθώς οι επιστήμονες πιστεύουν λανθασμένα ότι εξερευνούν όλες τις πιθανές υποθέσεις, ενώ εξετάζουν μόνο το στενότερο εύρος ερωτήσεων που μπορούν να ελεγχθούν μέσω της ΑΙ. Από την άλλη μεριά, τα εργαλεία ΑΙ ως «πληρεξούσιοι» που φαίνεται να μιμούνται με ακρίβεια τις απαντήσεις σε ανθρώπινες έρευνες, θα μπορούσαν να κάνουν τα πειράματα που απαιτούν μετρήσεις ή παρατηρήσεις ανθρώπινης συμπεριφοράς και αλληλεπίδρασης λιγότερο δημοφιλή επειδή είτε είναι πιο χρονοβόρα, είτε πιο ακριβά στη διεξαγωγή τους. Τέλος, θεωρώντας τα εργαλεία ΑΙ ως «κριτές» πιο αντικειμενικά και αξιόπιστα από τους ανθρώπους-ερευνητές είναι πιθανό να οδηγήσουν σε «ψευδαισθήσεις αντικειμενικότητας», αφού οι επιστήμονες θα πιστεύουν λανθασμένα ότι τα εργαλεία ΑΙ είναι ουδέτερα ή συμπεριληπτικά στην κρίση τους, ενώ στην πραγματικότητα αντιπροσωπεύουν τις απόψεις των επιστημόνων υπολογιστών που τα ανέπτυξαν και τα εκπαίδευσαν.
Ένας επιπρόσθετος κίνδυνος αφορά τα εργαλεία ΑΙ των ιδιωτικών εταιρειών. Είναι γνωστό πως η Google και η Microsoft έχουν επενδύσει και συνεχίζουν να επενδύουν σε ερευνητές που επιλέγουν να χρησιμοποιούν τα δικά τους εργαλεία και μοντέλα ΑΙ. Η αξιολόγηση της αξιοπιστίας αυτών των εργαλείων είναι όμως δύσκολη αφού θεωρούνται εμπορικά μυστικά και, ως εκ τούτου, είναι λιγότερα διαφανή από εκείνα που αναπτύσσονται στην ακαδημαϊκή κοινότητα. Εμπιστευόμενοι «τυφλά» τα εργαλεία της βιομηχανίας με στόχο να ξεπεράσουν τους δικούς τους γνωστικούς περιορισμούς, οι ερευνητές γίνονται συνεπώς ευάλωτοι σε «ψευδαισθήσεις κατανόησης», πιστεύοντας δηλαδή ότι κατανοούν περισσότερα για τον κόσμο απ’ ότι στην πραγματικότητα.
Η ραγδαία ανάπτυξη και αυξανόμενη χρήση εργαλείων ΑΙ στην επιστημονική έρευνα φαίνεται να ενισχύει την πεποίθηση ότι ο αντικειμενικός παρατηρητής είναι ο ιδανικός δημιουργός της γνώσης για τον κόσμο. «Αλλά αυτό είναι ένας μύθος», δηλώνει η Lisa Casseri. «Δεν υπήρξε και δεν μπορεί ποτέ να υπάρξει αντικειμενικός γνώστης και η συνέχιση της επιδίωξης αυτού του μύθου απλώς αποδυναμώνει την επιστήμη», συνεχίζει.
«Η αναγνώριση ότι η επιστήμη είναι μια κοινωνική πρακτική που επωφελείται από τη συμπερίληψη διαφορετικών απόψεων θα μας βοηθήσει να αξιοποιήσουμε πλήρως τις δυνατότητές της», προσθέτει η Molly Crockett. «Η αντικατάσταση διαφορετικών απόψεων με εργαλεία AI θα γυρίσει προς τα πίσω το ρολόι της προόδου που έχουμε σημειώσει ως προς την συμπεριληπτικότητα της ανθρώπινης ποικιλομορφίας στην επιστημονική έρευνα», καταλήγει.
*Ο Άγγελος Aλεξόπουλος γεννήθηκε στην Αθήνα, όπου σπούδασε Διεθνή και Ευρωπαϊκά Οικονομικά στο Οικονομικό Πανεπιστήμιο Αθηνών. Το 2008 ολοκλήρωσε τις διδακτορικές του σπουδές στην Οργανωσιακή Συμπεριφορά και Διοίκηση Ανθρώπινου Δυναμικού στο Dublin City University της Ιρλανδίας.
Το 2012 ξεκίνησε να εργάζεται στο CERN, το μεγαλύτερο εργαστήριο σωματιδιακής φυσικής στον κόσμο, όπου εντάχθηκε στην Ομάδα Εκπαίδευσης και Επικοινωνίας.
Το 2020 ορίστηκε Πρόεδρος του Τομεακού Επιστημονικού Συμβουλίου Ανθρώπινου Δυναμικού και Αναβάθμισης στο Εθνικό Συμβούλιο Έρευνας, Τεχνολογίας και Καινοτομίας, το ανώτατο συμβουλευτικό όργανο της πολιτείας, υπεύθυνο για τη διαμόρφωση και εφαρμογή της εθνικής στρατηγικής για την έρευνα, την τεχνολογική ανάπτυξη και την καινοτομία.
Οι δημοσιογράφοι σε όλη τη χώρα προχωρούν σε 24ωρη απεργία την Τρίτη 19 Νοεμβρίου, διαμαρτυρόμενοι…
Της Βάννας Σφακιανάκη Ως κεραυνός εν αιθρία και σαν να είναι κάτι τόσο φυσιολογικό και…
Σε μια επιχείρηση κατά των ναρκωτικών, αστυνομικοί του Τμήματος Αστυνομικών Επιχειρήσεων Χανίων συνέλαβαν σήμερα έναν…
Σε ένα σημαντικό πλήγμα για την εγκληματικότητα στην περιοχή, η Αστυνομία Ηρακλείου εξάρθρωσε μια σπείρα…
Η Ένωση Συνδέσμων Κληρικών Εκκλησίας Κρήτης εξέδωσε ψήφισμα με το οποίο εκφράζει την ηθική στήριξη…
Δεκάδες αυτοκινούμενα, πανίσχυρα πυροβόλα “M1989 Koksan” έχει στείλει ήδη η Βόρεια Κορέα στη Ρωσία, προκειμένου να χρησιμοποιηθούν…
This website uses cookies.