Από το 2012 έως το 2019, η Dr. Catrin Misselhorn ήταν πρόεδρος της έδρας για τη φιλοσοφία της επιστήμης και της τεχνολογίας και διευθύντρια του Ινστιτούτου Φιλοσοφίας στο Πανεπιστήμιο της Στουτγάρδης. Από τον Απρίλιο του 2019 αποδέχθηκε μια έδρα στο Πανεπιστήμιο του Γκέτινγκεν.
Η έρευνά της επικεντρώνεται στην ηθική των μηχανών ή στην ηθική συμπεριφορά των τεχνητά ευφυών συστημάτων. Ευρύτερα, είναι ειδικός στη φιλοσοφία της επιστήμης και της τεχνολογίας.
Σε αυτή τη συνέντευξη συζητά για τις πολυπλοκότητες της ηθικής των μηχανών σε τομείς όπως η υγειονομική περίθαλψη και η αυτόνομη οδήγηση και για το αν υπάρχει ή όχι ηθική σχέση μεταξύ ανθρώπων και μηχανών.
DWIH: Το έργο σας προσφέρει μια ασυνήθιστη προοπτική στις τρέχουσες συζητήσεις σχετικά με την τεχνητή νοημοσύνη και τη μηχανική μάθηση. Θα μας περιγράψετε την έρευνά σας και τα κύρια ακαδημαϊκά σας ενδιαφέροντα;
Η κύρια εστίασή μου σε αυτόν τον τομέα είναι η ηθική των μηχανών. Η ηθική των μηχανών διερευνά αν και πώς τα τεχνητά συστήματα μπορούν να εξοπλιστούν με ηθικές ικανότητες, δηλαδή αν δεν μπορεί να υπάρχει απλώς τεχνητή νοημοσύνη αλλά τεχνητή ηθική. Το ερώτημα αυτό γίνεται όλο και πιο επιτακτικό, δεδομένου ότι η ανάπτυξη όλο και πιο ευφυών και αυτόνομων τεχνολογιών θα οδηγήσει τελικά τα συστήματα αυτά να αντιμετωπίσουν ηθικά προβληματικές καταστάσεις. Πολυσυζητημένα παραδείγματα είναι η αυτόνομη οδήγηση, τα ρομπότ φροντίδας και τα αυτόνομα οπλικά συστήματα. Δεδομένου ότι αυτές οι τεχνολογίες θα έχουν βαθύ αντίκτυπο στη ζωή μας, είναι σημαντικό για τη μηχανική ηθική να συζητηθεί η δυνατότητα τεχνητής ηθικής και οι επιπτώσεις της στα άτομα και την κοινωνία.
DWIH: Η τεχνητή νοημοσύνη μπορεί να είναι τόσο αμερόληπτη όσο και τα δεδομένα που εισάγονται σε αυτήν. Η ηθική είναι υποκειμενική και υπάρχουν πολλές φιλοσοφικές προσεγγίσεις σε αυτήν. Όταν συζητάμε για μηχανές προγραμματισμένες με ηθική, για ποια ηθική μιλάμε; Ποιος αποφασίζει τι είναι ηθικό για τις μηχανές;
Δεν θα έλεγα ότι η ηθική είναι υποκειμενική σε αντίθεση, για παράδειγμα, με τη γεύση που είναι σαφώς υποκειμενική. Σε κάποιους ανθρώπους αρέσει το σπανάκι και σε κάποιους όχι. Η υποκειμενικότητα της γεύσης σημαίνει ότι δεν έχει πολύ νόημα να συζητάμε αν πρέπει να αρέσει σε κάποιον ή αν δεν πρέπει. Αυτό είναι διαφορετικό σε σχέση με την ηθική. Παρ’ όλα αυτά, συμφωνώ με τον John Rawls ότι υπάρχει ένας λογικός πλουραλισμός στα ηθικά ζητήματα στις φιλελεύθερες δημοκρατίες. Αυτό οφείλεται στους επιστημικούς περιορισμούς στην ηθική, τους οποίους ο Rawls αποκαλεί βάρη της κρίσης. Ωστόσο, αυτό δεν υπονομεύει τη μηχανική ηθική.
Σε ορισμένους τομείς, όπως η περίθαλψη, ευνοώ προσεγγίσεις που είναι ευαίσθητες στις ηθικές απόψεις των μεμονωμένων χρηστών. Μπορεί, για παράδειγμα, να υπάρχουν συγκρούσεις μεταξύ διαφορετικών αξιών στη φροντίδα, όπως η αποφυγή κινδύνων για την υγεία και ο σεβασμός της ιδιωτικής ζωής. Διαφορετικοί χρήστες πιθανόν να σταθμίζουν διαφορετικά αυτές τις αξίες. Ονειρεύομαι ένα σύστημα περίθαλψης που θα μπορεί να προσαρμόζεται στον τρόπο με τον οποίο οι χρήστες του σταθμίζουν τις διαφορετικές ηθικές αξίες.
Ωστόσο, μια τέτοια ατομική προσέγγιση δεν είναι κατάλληλη για όλους τους τομείς εφαρμογής. Η αυτόνομη οδήγηση δεν επηρεάζει μόνο τους χρήστες των αυτοκινούμενων αυτοκινήτων αλλά και τους πεζούς, τους ποδηλάτες ή τα παιδιά που δεν έχουν τη δυνατότητα να συναινέσουν. Ως εκ τούτου, απαιτούνται γενικά δεσμευτικές ρυθμίσεις σε τομείς όπως αυτοί. Είμαι βέβαιος ότι είναι δυνατόν να βρεθούν τέτοιοι κανονισμοί ακόμη και μπροστά στον εύλογο πλουραλισμό. Παραδείγματα όπου αυτό έγινε με επιτυχία στη Γερμανία είναι η άμβλωση ή η υποβοήθηση θανάτου. Υπάρχουν νόμοι που οι περισσότεροι άνθρωποι μπορούν να αποδεχθούν, ακόμη και αν δεν αντικατοπτρίζουν ακριβώς τις ηθικές τους στάσεις σε σχέση με αυτά τα ζητήματα.
DWIH: Είναι οι μηχανές κατά κάποιο τρόπο ήδη ή ακόμη και εγγενώς ηθικοί δρώντες;
Σύμφωνα με τη δική μου σταδιακή θεώρηση της πράξης, ένας τεχνητός πράκτορας μπορεί να θεωρηθεί ηθικός πράκτορας με μια λειτουργική έννοια, δηλαδή αν υπάρχει ηθική επεξεργασία πληροφοριών ενός συγκεκριμένου είδους. Πρέπει να γνωρίζουμε, ωστόσο, ότι αυτή η λειτουργική μορφή ηθικής πράξης που μπορεί να επιδεικνύουν τα τεχνητά συστήματα δεν ισοδυναμεί ακόμη με πλήρη ηθική πράξη, όπως αυτή αφορά τα ανθρώπινα όντα, δεδομένου ότι οι μηχανές στερούνται ελευθερίας της βούλησης, (αυτο)συνείδησης και αυτοαναστοχαστικότητας.
Μπορεί κανείς να σκεφτεί τη λειτουργική ηθική από την άποψη του σχήματος ηθικής ανάπτυξης του Lawrence Kohlberg ως από ορισμένες απόψεις συγκρίσιμη με το στάδιο της συμβατικής ηθικής. Δηλαδή, τα ηθικά πρότυπα που ακολουθεί ο τεχνητός ηθικός παράγοντας είναι προγραμματισμένα και δεν προκύπτουν από τη σκέψη του ίδιου του συστήματος. Επιπλέον, η τεχνητή ηθική περιορίζεται σε ορισμένους τομείς εφαρμογής, ενώ η ανθρώπινη ηθική είναι καθολική, δεδομένου ότι μπορεί να εφαρμοστεί σε όλα τα είδη ηθικών ζητημάτων.
Έχουν αναπτυχθεί ορισμένα πρωτότυπα μηχανών με ηθικές ικανότητες, για παράδειγμα στη ρομποτική φροντίδας και εξυπηρέτησης ή σε αυτόνομα οπλικά συστήματα. Ωστόσο, κανένα από αυτά δεν είναι διαθέσιμο στην αγορά μέχρι σήμερα.
DWIH: Ας υποθέσουμε ότι ένα αυτόνομο αυτοκίνητο σκοτώνει κάποιον με βάση μια ηθική απόφαση που έλαβε χρησιμοποιώντας μηχανική μάθηση. Ποιος αναλαμβάνει την ευθύνη για την πράξη αυτή;
Το κύριο πρόβλημα είναι ότι τα αυτόνομα συστήματα δεν μπορούν να φέρουν την ευθύνη επειδή δεν είναι πλήρεις ηθικοί παράγοντες. Μπορούν όμως να υπονομεύσουν τις περιγραφές ευθύνης. Αυτό οφείλεται στο γεγονός ότι η ανάληψη ευθύνης από τους πράκτορες για τις πράξεις τους προϋποθέτει ότι οι πράκτορες είχαν πρόθεση να προβλέψουν τις συνέπειες των πράξεών τους ή τουλάχιστον ήταν σε θέση να τις προβλέψουν και ότι μπορούν να τις ελέγξουν. Μπορεί να υπάρξουν καταστάσεις στις οποίες ένα σύστημα ενεργεί ανήθικα, παρόλο που κανένας ανθρώπινος πράκτορας δεν το προόριζε, κανείς δεν ήταν σε θέση να το προβλέψει και κανείς δεν ήταν σε θέση να ελέγξει το σύστημα μόλις αυτό ενεργοποιήθηκε. Θα μπορούσε κανείς να σκεφτεί να αναγκάσει τον χρήστη να αναλάβει την ευθύνη κατά την εκκίνηση του μηχανήματος. Αλλά αυτό θα απαιτούσε ότι το άτομο έχει ανεξάρτητη πρόσβαση στις σχετικές πληροφορίες και αρκετό χρόνο για σκέψη, πράγμα που είναι εξαιρετικά αμφίβολο σε πρακτικά πλαίσια.
DWIH: Ας το αντιστρέψουμε αυτό. Έχουν οι άνθρωποι ηθική ευθύνη απέναντι στις μηχανές; Αν, όπως βλέπουμε σε τόσα πολλά viral βίντεο και GIF, ένας άνθρωπος κλωτσάει ένα ρομπότ, για παράδειγμα, είναι αυτό ηθικά λάθος;
Οι άνθρωποι δεν έχουν ηθική ευθύνη απέναντι σε μηχανές που δεν διαθέτουν ηθικά κρίσιμες ικανότητες όπως η συνείδηση. Έχουν όμως ηθική ευθύνη απέναντι στους συνανθρώπους τους, η οποία μπορεί επίσης να επηρεάσει τη συμπεριφορά τους απέναντι στα ρομπότ. Όπως έχω υποστηρίξει σε σχέση με την ενσυναίσθηση με τα ρομπότ, είναι ηθικά λάθος να κακομεταχειριζόμαστε συστηματικά ρομπότ που μοιάζουν με ανθρώπους (ή ζώα) στο βαθμό που είναι ικανά να προκαλέσουν ενσυναίσθηση, διότι αυτό έχει πιθανώς αρνητική επίδραση στην ικανότητα ηθικής κρίσης, στα ηθικά κίνητρα και στην ηθική ανάπτυξη σε σχέση με άλλους ανθρώπους ή ζώα.