Πρώτον, η δυνατότητα λήψης ορθής απόφασης για εκτέλεση. Μια παραδοσιακή σχολή σκέψης υποστηρίζει ότι μόνο η λογική, η απαλλαγμένη από κάθε είδους συναισθηματική στρέβλωση, μπορεί να οδηγήσει σε ορθές αποφάσεις. Συμφωνεί όμως αυτό με τα νευροεπιστημονικά δεδομένα; Και αρκεί ένας ορθός μηχανισμός λήψης αποφάσεων για ορθές αποφάσεις, ή μήπως χρειαζόμαστε τουλάχιστον ακόμα δύο συστατικά: πρώτον, πληροφορίες και δεύτερον, ένα ξεκάθαρο - και πρακτικά υπολογίσιμο - ηθικό σύστημα;
Είναι όμως το συναίσθημα πάντα αντίπαλος της λογικής; Το 1848, μια μεγάλη έκρηξη, έσπρωξε μια μεταλλική ράβδο μεγάλου μήκους με τόση ορμή, ώστε διαπέρασε το κρανίο ενός νεαρού εργάτη σιδηροδρόμου: του Φινέα Γκέητζ, το όνομα του οποίου έμεινε ιστορικό στις νευροεπιστήμες. Πάρα πολλοί άλλοι άνθρωποι με συγκεκριμένες εγκεφαλικές κακώσεις, έχουν αποτελέσει σημαντικές πηγές για την μελέτη του ανθρωπίνου εγκεφάλου και της σχέσεως του με την νόηση και την συμπεριφορά. Το ενδιαφέρον για μας στοιχείο από τέτοιες μελέτες είναι ότι άνθρωποι με κακώσεις σε περιοχές που σχετίζονται κυρίως με την συναισθηματική (και όχι την λογική) λειτουργία, τελικά καταλήγουν να έχουνε σημαντικό πρόβλημα και σε διαδικασίες που εκ πρώτης όψεως φαίνονται καθαρά «λογικές», όπως η επίλυση μαθηματικών προβλημάτων (Damasio, το σφάλμα του Καρτεσίου).
O Φινέας Γκέητζ μετά το τραγικότερο στην ιστορία της χειρουργικής εργατικό ατύχημά του(scilogs.com)
Επίσης, αναλύοντας την διαδικασία σκέψης της επίλυσης ενός μαθηματικού προβλήματος, φαίνεται ότι πέρα από τα εύκολα βήματα μιας απόδειξης, όπου υπάρχει συνειδητή επίγνωση και δοκιμή διαφόρων πιθανών επομένων βημάτων, υπάρχουνε και βήματα που απαιτούνε ένα «νοητικό άλμα», στα οποία παύει να υπάρχει επίγνωση μιας αλληλουχίας σκέψεων που οδηγεί στη λύση - και η λύση φαίνεται απλά να «μας έρχεται». Κατά τη διάρκεια αυτών ακριβώς των νοητικών αλμάτων, που αποτελούνε μέρος της επίλυσης προβλημάτων που φαίνονται καθαρά λογικά, φαίνεται να υπεισέρχονται εγκεφαλικές λειτουργίες και περιοχές που σχετίζονται με συναισθήματα: μια αποτίμηση της γεύσης χιλιάδων δυνατών επομένων βημάτων συμβαίνει αστραπιαία, και μερικά από αυτά εξέρχονται ως λύση της διαδικασίας. Άρα, αυτό που φαινομενικά ονομάζουμε «λογική νοητική διαδικασία» αλληλοσυμπληρώνεται με κάποιες μορφές συναισθηματικά επιχρωματισμένων διαδικασιών ταχείας ολιστικής αποτίμησης - οπότε δεν είναι πάντα το συναίσθημα αντίπαλος της λογικής - αλλά σε κάποιες περιπτώσεις φαίνεται να είναι και απαραίτητος σύμμαχος της, ώστε να ληφθούν βέλτιστες αποφάσεις!
Βέβαια, αυτό δεν σημαίνει ότι δεν υπάρχουνε συναισθηματικές και άλλες συστηματικές στρεβλώσεις (cognitive biases) που μας κάνουνε να αποκλίνουμε από τις ορθές αποφάσεις - και πολλές από αυτές έχουνε μελετηθεί σε βάθος, π.χ. σε σχέση με την λήψη οικονομικών αποφάσεων - όπως στο Nobel οικονομικών των Kahneman και Tverksy. Αλλά ακόμα και κάποιες από αυτές τις φαινομενικές αποκλίσεις, μπορούνε να δικαιολογηθούν σε κάποιες περιπτώσεις αν τις δούμε μέσα σε ένα ευρύτερο πλαίσιο, π.χ. της νοητικής οικονομίας και του bounded rationality. Δηλαδή, τα πράγματα σε σχέση με την εμπλοκή συναισθηματικών διαδικασιών στην λήψη ορθών αποφάσεων, απλά, δεν είναι τόσο απλά! Και εξαρτώνται πολύ από το πως κανείς οριοθετεί την τεχνητή διχοτόμηση μεταξύ λογικής και συναισθήματος - που κατά άλλους δεν αποτελούνε διακριτές κατηγορίες, αλλά συμμετέχουνε σε ένα πιο ολιστικό συνεχή χάρτη νοητικών ποικιλιών.
Οπότε, δεν υπερτερούνε κατ' ανάγκη και πάντα οι μηχανές από τους ανθρώπους ως προς τη λήψη ορθών αποφάσεων, τουλάχιστον όχι λόγω της «έλλειψης συναισθηματικών στρεβλώσεων». Όμως, αν είναι έτσι, και αν τελικά απαιτείται μερικές φορές και τεχνητή συναισθηματική νοημοσύνη από τις μηχανές, θα μπορέσουνε ποτέ οι μηχανές να «έχουνε συναισθήματα»; Και εδώ εισέρχεται ένας ακόμα δημοφιλής μύθος: ότι τα συναισθήματα αποτελούνε μόνο ανθρώπινη ιδιότητα. Παρά ταύτα, και πάλι βέβαια αφού αποσαφηνίσει κανείς εμπειρικά ελέγξιμες ενδείξεις που να επιβεβαιώνουνε την πρόταση «η οντότητα Χ έχει συναισθήματα» (όπου Χ είμαι εγώ, ο Γιώργος, ο Γάτος μου, ή το Ρομπότ μου) για να ξέρουμε για τι μιλάμε, φαίνεται ότι ακόμα και οι σημερινές μηχανές (πόσο μάλλον οι μελλοντικές) έχουνε κάποιες δυνατότητες συναισθηματικής νοημοσύνης! Π.χ. υπάρχουνε προγράμματα που διαβάζουνε ανθρώπινες εκφράσεις στο πρόσωπο ή τον τόνο της φωνής και τον κατηγοριοποιούνε ως «φοβισμένο» ή «ευτυχισμένο» κλπ. Και υπάρχουνε και εικονικοί χαρακτήρες ή ρομπότ που χαμογελάνε ή κατσουφιάζουνε ανάλογα με την διάδρασή τους - όπως και το πολύ δημοφιλές στην Ιαπωνία παιχνίδι Tamagochi - ένα εικονικό ανθρωπάκι τσέπης που θέλει φροντίδα για να παραμένει ευτυχισμένο και να αναπτύσσεται! Σε κάποιες περιπτώσεις μάλιστα, αυτά τα προγράμματα μπορεί να είναι πιο ακριβή από τους ανθρώπους στην αναγνώριση λεπτών ενδείξεων συναισθημάτων. Και το μέλλον του "affective computing" ως τομέα διαγράφεται λαμπρό.
Αν δεχτούμε ότι ο συνάνθρωπος μας, στου οποίου τα συναισθήματα δεν έχουμε πρωτογενή πρόσβαση, αλλά μόνο δευτερογενή, έχει συναισθήματα, τότε έπεται ότι και οι μηχανές μπορούνε να έχουνε όχι μόνο συναισθηματική νοημοσύνη αλλά και συναισθήματα, σύμφωνα με την παραπάνω θεώρηση
Όμως, το να μπορεί ένα μηχάνημα να αναγνωρίζει συναισθήματα, ή να δίνει την αίσθηση ότι βρίσκεται σε συναισθηματικές καταστάσεις, αυτό σημαίνει ότι ΕΧΕΙ ΟΝΤΩΣ συναισθήματα; Από μια πιο οντολογική προσέγγιση, αυτό είναι ενδεχομένως αμφιλεγόμενο. Με μια πιο φαινομενολογική όμως, όχι και τόσο. Σκεφτείτε π.χ. το τι σας κάνει να πιστεύετε ότι οποιοσδήποτε άλλος άνθρωπος, πέρα από το εαυτό σας, έχει συναισθήματα: παρατηρείτε απλά τις εκφράσεις του και την συμπεριφορά του, και έτσι συνάγετε ότι «Για να φαίνεται έτσι, πρέπει να αισθάνεται Χ». Είχατε όμως ποτέ άμεση, πρωτογενή πρόσβαση, στην εσωτερική κατάσταση οποιουδήποτε άλλου ανθρώπου πλην του εαυτού σας; Ή τελικά, ακόμα και αυτό είναι μια δευτερογενής πεποίθηση (πιστεύω ότι πιστεύει Χ, πιστεύω ότι αισθάνεται Χ κλπ.); Και μια και από αυτά που βλέπουμε πιστεύουμε ότι ο Γιώργος αισθάνεται χαρούμενος, και όχι μόνο ο Γιώργος, αλλά και ο σκύλος μας όταν κουνάει την ουρά του, για ποιό λόγο να είναι κάτι το εντελώς διαφορετικό όταν ένα ρομπότ χαμογελά; Έτσι και αλλιώς, ποτέ δεν μπήκαμε στο μυαλό του Γιώργου ή του σκύλου μας - όπως και του ρομπότ, για να αισθανθούμε άμεσα ότι αισθάνεται. Και δεν αναφέρομαι σε όλα αυτά για να σας οδηγήσω σε ένα σκεπτικιστικό σολιψισμό (στην αργκό της φιλοσοφίας), απλά για να σας θυμίσω ότι μόνο στα δικά σας συναισθήματα έχετε πρωτογενή (άμεση) πρόσβαση (και πάλι, μάλιστα, μερική!), και ότι τα συναισθήματα οποιασδήποτε άλλης οντότητας (ανθρώπινης, ζωικής, ή ρομποτικής) απλά μπορείτε να τα υποθέσετε δευτερογενώς, σε σχέση με αυτά που βλέπετε. Άρα: ναι, αν δεχτούμε ότι ο συνάνθρωπος μας, στου οποίου τα συναισθήματα δεν έχουμε πρωτογενή πρόσβαση, αλλά μόνο δευτερογενή, έχει συναισθήματα, τότε έπεται ότι και οι μηχανές μπορούνε να έχουνε όχι μόνο συναισθηματική νοημοσύνη αλλά και συναισθήματα, σύμφωνα με την παραπάνω θεώρηση. Εκτός βέβαια αν αξιωματικά δεχτούμε ότι υπάρχει μια κάποια άλλη ουσιώδης διαφορά στην περίπτωση των μηχανών, που εκ προοιμίου τις απαγορεύει να έχουν συναισθήματα. Αλλά τότε, αυτό δεν θα είναι κάτι που προκύπτει λογικά, όπως ο παραπάνω συλλογισμός: απλά θα προϋποτίθεται δογματικά.
Άρα, σε σχέση με την πρώτη προϋπόθεση της δυνατότητας έκδοσης «άδειας φόνου», αυτήν της λήψης ορθών αποφάσεων, δεν φαίνεται να υπάρχει καθαρό προβάδισμα ανθρώπων ή μηχανών, τουλάχιστον καθολικό ή εκ προοιμίου, και σίγουρα όχι λόγω της «συναισθηματικής μόλυνσης» των ανθρώπων - κάθε άλλο μάλιστα. Έτσι και αλλιώς, η έλλειψη καθαρού προβαδίσματος ισχύει και σε πολλά ακόμα πεδία σύγκρισης μεταξύ ανθρώπων και μηχανών: π.χ. το Deep Blue της IBM νικάει τον παγκόσμιο πρωταθλητή σκακιού Kasparov - ενώ σε πολλά προβλήματα αναγνώρισης προτύπων οι άνθρωποι υπερτερούνε κατά πολύ των μηχανών - ακόμα τουλάχιστον. Πάντως, η ειδική εκπαίδευση ανθρώπων ώστε να μειώνονται οι ανεπιθύμητες συναισθηματικές στρεβλώσεις, ενώ είναι μερικώς δυνατή σήμερα, φαίνεται να είναι και αργή, και επίπονη, και με συχνά αβέβαια αποτελέσματα και μερικώς φορές ανεπιθύμητες παράπλευρες συνέπειες. Και εκτός αυτού, το γεγονός ότι σήμερα δεν φαίνεται να υπάρχει καθαρό προβάδισμα ούτε στον άνθρωπο ούτε στην μηχανή, δεν σημαίνει ότι στο μέλλον τα πράγματα θα είναι παρόμοια; ενδέχεται οι τάσεις μεταβολής, όπως και η ύπαρξη εγγενών η μη άνω φραγμάτων, να οδηγήσουνε σε ανατροπές στο μέλλον. Αλλά, έτσι και αλλιώς, όπως θα δούμε αργότερα, τελικά αυτό που πραγματικά μας ενδιαφέρει στην πράξη δεν είναι τα συστήματα απομονωμένων ανθρώπων ή μηχανών; αλλά η δυνατότητα χαλαρής η στενότερης σύνδεσης πολλών ανθρώπων και μηχανών για τη δημιουργία συστημάτων που παρουσιάζουν συλλογική νοημοσύνη.
O διάσημος σκακιστής Garry Kasparov αντμέτωπος με τον υπολογιστή Deep Blue το 1996 (flickr/Jim Peake).
Ας επιστρέψουμε όμως τώρα στο θέμα της λήψης ορθών αποφάσεων, δύο άλλες πτυχές του οποίου δεν έχουμε ακόμα εξετάσει: Πρώτον, την ύπαρξη επαρκούς πληροφορίας, και σχετικής με την απόφαση προς λήψη: δεν αρκεί μόνο ο νοητικός μηχανισμός- πρέπει να τροφοδοτηθεί και με τα σωστά δεδομένα για μια σωστή απόφαση! Εκεί, υπεισέρχεται μια πολύ ενδιαφέρουσα πτυχή της υπόθεσης: ένα μεγάλο μέρος αυτής της πληροφορίας, ενδέχεται να μην περιέχεται μόνο στις αισθήσεις ή τη μνήμη του ρομπότ ή ανθρώπου: αλλά να είναι εξωτερική πληροφορία - π.χ. στο διαδίκτυο, σε μια ειδική βάση δεδομένων υπόπτων, ή σε εικόνες από ένα δίκτυο καμερών που καλύπτουνε μέρη μιας πόλης. Έτσι, και στην νέα ταινία του ρόμποκοπ, τα ρομπότ ή ο υβριδικός Άλεξ έχουνε πρόσβαση στις κάμερες και στις αποθηκευμένες βιντεοσκοπήσεις και τις βάσεις δεδομένων, που βρίσκονται στο διαδίκτυο, έξω από το σώμα τους. Εκεί οι μηχανές φαίνεται να έχουνε ένα προβάδισμα σε σχέση με τους ανθρώπους: έχουνε άμεση πρόσβαση στην πληροφορία αυτή, ενώ οι άνθρωποι χρειάζονται κάποιο ειδικό ενδιάμεσο (human-machine interface) για την παρουσίαση της πληροφορίας ώστε να διέρθει μέσω των αισθήσεων στο μυαλό τους. Από την άλλη μεριά όμως, ένα μεγάλο μέρος των πληροφοριών που υπάρχουνε, τουλάχιστον αυτή τη στιγμή, στο διαδίκτυο ή οι εικόνες που παράγονται, δεν είναι σε μορφή άμεσα κατανοήσιμη από μηχανές (machine understandable information, δείτε π.χ. semantic web); οπότε και πάλι, τουλάχιστον σήμερα, τα πράγματα δεν φαίνεται να κλίνουν πολύ καθαρά προς την μεριά των μηχανών ή των ανθρώπων, ακόμα και σε σχέση με αυτή τη δεύτερη πτυχή της ορθής λήψης αποφάσεων, δηλαδή της πρόσβασης σε επαρκή και σχετική πληροφορία.
Και υπολείπεται και η τρίτη προς εξέτασιν πτυχή: η ύπαρξη ενός ξεκάθαρου - και υπολογίσιμου - ηθικού συστήματος. Ορθή απόφαση, αλλά με ποιά θεώρηση του σωστού ή λάθους, καλού ή κακού; Πολλές οι σχετικές έννοιες σε μια τέτοια συζήτηση. Υπάρχει «απόλυτο κακό» ή «απόλυτο καλό», ή έστω μια εύκολη σχέση διάταξη του τύπου «καλύτερο» ή «χειρότερο»; Αν ναι, πως τοποθετούμε τα όρια της μελέτης των επιπτώσεων μιας πράξης; Καλό για ποιόν; Για μας; Για το παιδί μας; Για την Ελλάδα; Για την Ανθρωπότητα; Για την μητέρα Γη, μαζί με την βιόσφαιρά της; Και σύμφωνα με το τι η κάθε ομάδα θεωρεί καλό; Σε αυτά που δεν θα θέλαμε να συμβούνε σε ένα άνθρωπο - υπάρχει αρκετή πανανθρώπινη συμφωνία - και έτσι και έχουνε προκύψει θεμέλια όπως τα Δικαιώματα του Ανθρώπου. Σε αυτά όμως τα θετικά που θα ήθελε ο κάθε άνθρωπος; Γνώση; Ισχύ; Χρήμα; Αυτοπραγμάτωση; Αγάπη; Είχε ο Επίκουρος δίκαιο, ο Ιησούς, ο Πλάτωνας, ή ο Εκκλησιαστής της Παλαιάς Διαθήκης; Έστω, μπορεί να πει κανείς, ο φύλακας - ρομπότ δεν προσπαθεί να μεγιστοποιήσει διαφορετικές όψεις του «Κοινού Καλού» (δεν είναι το ηλεκτρονικό ισοδύναμο των Κυβερνητών του Πλάτωνα - αλλά ένας αστυνομικός, που θα άνηκε στην δεύτερη μάχιμη τάξη της Πολιτείας), απλά προσπαθεί να αποφύγει τα πασιφανώς και ομόφωνα άσχημα - π.χ. την δολοφονία ενός πολίτη από έναν εγκληματία. Αλλά και πάλι, μπορεί να υπολογίσει τις επιπτώσεις της πράξης του, και πως θα σταθμίσει το βάρος τους; Και κυρίως, ποιό σύστημα ηθικής συλλογιστικής (ethical reasoning) θα χρησιμοποιήσει;
Το "πρόβλημα" του τρόλεϊ της Φιλίπα Φούτ αποτελέι το απάγαυσμα της ηθικής συλλογιστικής[ethical reasoning] (Andew Barr/National Post)
Οι τρεις νόμοι της ρομποτικής του Αsimov - αποτελούνε απλά ένα χρησιμότατο αλλά πολύ χονδροειδές περίβλημα - που και πάλι έχει μεγάλες υπολογιστικές δυσκολίες, όταν προσπαθεί κανείς να το υλοποιήσει στην πράξη. Και πέρα από popular science θεωρήσεις, όπως του Asimov, τα θεμελιώδη ερωτήματα της ηθικής συλλογιστικής είναι βαριά, και αποτελούνε και σημείο διχασμού της κοινής γνώμης. «Ο σκοπός αγιάζει τα μέσα», «το κόστος της ανθρώπινης ζωής», και άλλες τέτοιες εκφράσεις βρίσκονται στο κέντρο αυτών των συζητήσεων. Μια πτήση, ακυβέρνητη, με έναν μη ειδικευμένο πιλότο ημιαναίσθητο, ζητάει άδεια να προσγειωθεί στο Ελευθέριος Βενιζέλος, Αύγουστο μήνα, γεμάτο με κόσμο. Θα την λάβει; Θα την καταρρίψει ο Ρόμποκοπ με πυραύλους, για να μειώσει την πιθανότητα ενός πολύ πιο πολύνεκρου ατυχήματος; Το κλασσικότατο «πρόβλημα του τρόλεϊ» της Φιλίπα Φουτ, κεντρικό στην ηθική συλλογιστική, είναι ιδιαίτερα παρόμοιο με το παραπάνω.
Μια πιο σύνθετη μεταβλητή των διλημμάτων που θέτει το πρώτο παράδειγμα του "προβλήματος του τρόλεϊ" (Andew Barr/National Post)
Και εκτός αυτού, υπάρχει και μια άλλη μεγάλη διάσταση της υπολογιστικής υλοποίησης της ηθικής με την οποία θα θελήσουμε να εφοδιάσουμε ένα μηχάνημα: αυτή της πρακτικής υλοποιησιμότητας. Αρκετά ηθικά συστήματα, κυρίως αυτά που βασίζονται στην μεγιστοποίηση της στατιστικά μέσης τιμής κάποιας συνάρτησης χρησιμότητας που προκύπτει από τις πιθανές εκβάσεις των συνεπειών της κάθε πράξης προς επιλογή, στηρίζονται στην υπολογιστική προβλεψιμότητα όχι μόνο των πρωτογενών, αλλά και των δευτερογενών συνεπειών των πράξεων μας, και μάλιστα αυτών που διαμεσολαβούνται από άλλους ανθρώπους. Τι εννοώ όμως με αυτό; Απλά, ότι αυτές οι θεωρίες θα μπορούσαν απλοϊκά να συνοψιστούν στο: «Διάλεξε εκείνη την πράξη που θα κάνει στατιστικά το περισσότερο καλό, όχι μόνο διαμέσω των άμεσων αποτελεσμάτων της, αλλά και μέσω των έμμεσων - δηλαδή, διαμέσω των μελλοντικών πράξεων άλλων ανθρώπων που θα προκύψουν ως αποτέλεσμα του πως επηρέασε η πράξη σου άλλους ανθρώπους». Αυτό μπορεί να ακούγεται όμορφο, όμως συχνά υπολογιστικά είναι αδύνατο να προβλεφθούν δευτερογενείς συνέπειες, είτε λόγω έλλειψης επαρκών πληροφοριών είτε λόγω εγγενούς υπολογιστικής πολυπλοκότητας. Οπότε, σε αυτή την περίπτωση, απλοϊκά και άκαμπτα ηθικά συστήματα (όπως π.χ. ένα σύνολο «εντολών» για το τι να κάνει η τι να μην κάνει κανείς σε εύκολα ελέγξιμες συνθήκες) μπορεί να καταλήγουν να είναι πολύ πιο αποδοτικά στην πράξη τους από τα παραπάνω.
Στο επόμενο μέρος θα μάθουμε για την στόχευση και τη νομική ευθύνη..