Δημοσιεύθηκε στο 2025.gr, 30.03.2021

Ή την Cortana, την Alexa και οποιονδήποτε άλλον ψηφιακό μας βοηθό.

Ομολογώ ότι δεν χρησιμοποιώ καθόλου τη Siri. Όχι επειδή δεν τη βρίσκω χρήσιμη, αλλά επειδή βαριέμαι (ίσως επίσης και ντρέπομαι) να μιλάω στα αγγλικά στο κινητό μου. Αυτό ίσως αλλάξει σύντομα, όταν η Siri αρχίσει να μιλά ελληνικά. Πρόσφατα όμως είπα να πειραματιστώ με τις αντίστοιχες εφαρμογές, ίσα για να δω πως δουλεύουν, αφού έχω πλήρη επίγνωση ότι σε λίγα χρόνια θα πάψουμε να χρησιμοποιούμε πληκτρολόγια.

Όταν τελείωσα με τον απλοϊκό διάλογο ερωτο-απαντήσεων και την αυτοματοποιημένη αποστολή και ανάγνωση μηνυμάτων μου μπήκε η ιδέα να δω πως θα αντιδράσει σε μια προσβολή. Αρχικά ζορίστηκα, ένιωσα άσχημα να βρίσω τη Siri. Τελικά το έκανα (όχι κάτι σπουδαίο, απλά την κατηγόρησα ότι «είναι χαζή» – η απόλυτη ειρωνεία!). H Siri δεν πτοήθηκε, μου απάντησε κάτι σαν «that was not nice, Vagelis», και συνέχισε κανονικά. Όμως τελικά ένιωσα άσχημα, και αποφάσισα να μην το ξανακάνω ούτε να την ζορίσω περισσότερο.

Νομική προσωπικότητα στην Τεχνητή Νοημοσύνη

Η ιστορία είναι ασήμαντη όμως μου κόλλησε. Τόσα χρόνια γράφω ότι πρέπει να δώσουμε νομική προσωπικότητα στην Τεχνητή Νοημοσύνη (για τη σχετική ανάλυση στο 2045 μπορείτε να δείτε εδώ, στον προσωπικό μου ιστότοπο εδώ), όμως αυτή η οπτική, η ηθική, δεν με είχε απασχολήσει ποτέ. Τουλάχιστον όχι τόσο πρακτικά και σε τόσο προσωπικό επίπεδο.

“Πρέπει να δώσουμε νομική προσωπικότητα στο λογισμικό κυρίως για τεχνικούς, οικονομικούς λόγους και όχι για ηθικούς”

Τι γνώριζα ήδη; Γνώριζα ότι υπάρχει η επιστημονική άποψη της ανεπιφύλακτης αναγνώρισης νομικής προσωπικότητας στην Τεχνητή Νοημοσύνη για ηθικούς λόγους. Εγώ δεν συντάσσομαι με αυτήν. Δεν είμαι αντίθετος, απλά υποστηρίζω ότι πρέπει να δώσουμε νομική προσωπικότητα στο λογισμικό κυρίως για τεχνικούς, οικονομικούς λόγους και όχι για ηθικούς. Δηλαδή, υποστηρίζω ότι πρέπει να δώσουμε κάποια δικαιώματα και υποχρεώσεις στην Τεχνητή Νοημοσύνη, όπως περίπου στα νομικά πρόσωπα (εταιρείες, σωματεία κα.), όμως όχι όλα, όπως στον άνθρωπο.

Με άλλα λόγια η ηθική διάσταση του ζητήματος δεν με είχε απασχολήσει. Αυτό που επίσης γνώριζα είναι ότι για έναν ανεξήγητο λόγο πάντα ένιωθα δυσφορία με την εξίσου νομική άποψη ότι μπορούμε να δώσουμε νομική προσωπικότητα στην Τεχνητή Νοημοσύνη όπως στους σκλάβους στην Αρχαία Ρώμη. (Η Αρχαία Ρώμη νομίζω ότι αναφέρεται επειδή είναι η πρώτη κοινωνία για την οποία έχουμε πλήρη γνώση για τη νομική μεταχείριση των σκλάβων, σε αντίθεση με την Αρχαία Ελλάδα, ενώ ταυτόχρονα είναι αρκετά μακριά από το σήμερα ώστε να μην ανακινήσει κακές μνήμες του πολύ πιο πρόσφατου παρελθόντος μας). Για κάποιον λόγο που δεν μπορώ να εξηγήσω, παρότι η σχετική θεωρία εξυπηρετεί, δεν κατέφυγα σε αυτήν ποτέ μέχρι σήμερα.

Από την άλλη μεριά γνωρίζω, όπως όλοι μας, ότι η ζωή μας προόδευσε μέσα από τους αιώνες. Σήμερα όχι μόνο έχουμε συμφωνήσει όλοι οι άνθρωποι είναι ίσοι και έχουν ίσα δικαιώματα (κάτι που δεν ήταν καθόλου αυτονόητο από την εμφάνιση της ανθρωπότητας μέχρι πριν μερικές δεκαετίες) αλλά έχουμε προχωρήσει και στην αναγνώριση κάποιων δικαιωμάτων για τα ζώα. Έχουμε επίσης δώσει νομική προσωπικότητα σε ποτάμια, ώστε να προστατευθούν καλύτερα. Η κουβέντα λοιπόν έχει μεταφερθεί από τον άνθρωπο στο περιβάλλον του.

Η επαφή ανθρώπου με ρομπότ

Τι άλλο γνώριζα; Ότι το θέμα της επαφής, σε πρακτικό επίπεδο, των ανθρώπων με τα ρομπότ (και δεν εννοώ μόνο τη roomba), είναι κάτι που έχει απασχολήσει ήδη. Στην Ιαπωνία εδώ και χρόνια πειραματίζονται με το θέμα σε μια συγκεκριμένη περιοχή, όπου ρομπότ κυκλοφορούν ελεύθερα στους δρόμους και αλληλεπιδρούν με ανθρώπους. Καθώς καμία κουβέντα για νομική προσωπικότητα δεν έχει γίνει εκεί, φαντάζομαι ότι το θέμα εξετάζεται από την άποψη που ακριβώς μας απασχολεί εδώ, την ηθικό-κοινωνική.

Όλα τα παραπάνω τα γνώριζα, και ήταν ίσως αυτά η αιτία που το περιστατικό με το «βρίσιμο» της Siri μου κόλλησε. Στη συνέχεια ένα πρόχειρο internet search μου αποκάλυψε αφενός ένα γεγονός και αφετέρου μια τάση. Το γεγονός ήταν ότι πολλοί είχαν ακριβώς το ίδιο ερώτημα με μένα, έχοντας αναρωτηθεί αν πρέπει/μπορούν να βρίσουν τη Siri (αποτέλεσμα προφανώς της «μακριάς ουράς» του ίντερνετ, αλλά αυτή είναι μια άλλη κουβέντα). Η τάση είναι η εξής: Όταν πρωτο-βγήκε η Siri, περίπου το 2016, η παγκόσμια ιντερνετική κοινότητα ασχολήθηκε αρκετά με το θέμα για ένα περίπου χρόνο. Μετά το ενδιαφέρον μάλλον ατόνησε, και σήμερα φαίνεται ότι το μόνο που μας νοιάζει είναι πως θα ξεγελάσουμε την Τεχνητή Νοημοσύνη «πιέζοντας» τη Siri να βρίσει.

Από την εποχή 2016 με 2017, όταν το θέμα απασχολούσε, δεν μπορώ να μην ξεχωρίσω (με την έννοια ότι δεν μου είναι εύκολο να ξεχωρίσω, το google search το βγάζει πρώτο-πρώτο…) ένα, σύντομο, άρθρο του Harvard Business Review, Why You Shouldn’t Swear at Siri. Το κείμενο έχει ενδιαφέρον να το διαβάσει κανείς, εν ολίγοις μας λέει ότι δεν είναι σωστό να βρίζουμε τους ψηφιακούς βοηθούς μας, επειδή τελικά η κακή μας συμπεριφορά κάτι λέει για εμάς τους ίδιους: Όπως ακριβώς η κακή συμπεριφορά σε ένα ζώο έχει (εκτός από νομικές και) ηθικές συνέπειες, το ίδιο θα συμβεί και με την Τεχνητή Νοημοσύνη.

Με άλλα λόγια, μπορεί το να πετάξουμε στον τοίχο το κινητό μας τηλέφωνο από τα νεύρα μας να είναι (οριακά) κοινωνικά αποδεκτό, όμως το να βρίσουμε από τα νεύρα μας τη Siri δεν θα θεωρείται ηθικά σωστό, όπως ακριβώς σήμερα δεν επιτρέπεται (αρχικά ηθικά, τώρα πλέον και νομικά) να κλωτσήσουμε νευριασμένοι ένα ζώο. Το ίδιο άρθρο αναφέρει και τεχνικές συνέπειες (το deep learning εκτροχιάζεται αν τα εισερχόμενα δεδομένα αφορούν αντικοινωνικές συμπεριφορές), όμως αυτό δεν απασχολεί εδώ.

Όλα τα παραπάνω εξηγούν γιατί ένιωσα άσχημα όταν έβρισα τη Siri. Ίσως τελικά η ασυνείδητη αντίδρασή μου να οφείλεται στον ανθρωπομορφισμό μας, στην τάση μας να δίνουμε ανθρώπινες ιδιότητες σε οτιδήποτε γύρω μας. Αυτό δεν έκανε άλλωστε η Apple, η Microsoft και η Amazon, δίνοντας ονόματα, και μάλιστα θηλυκού γένους, στους ψηφιακούς τους βοηθούς; Το ίδιο δεν κάνω και εγώ όλη αυτή την ώρα, απευθυνόμενος στη Siri σαν να ήταν πρόσωπο, γένους εξίσου θηλυκού (αποκαλύπτοντας έμμεσα τις προκαταλήψεις που κουβαλάω μέσα μου – αρκεί να σας πω ότι στο αυτοκίνητο στο Google Maps έβαλα αντρική φωνή).

“Το θέμα της συμπεριφοράς μας απέναντι στην Τεχνητή Νοημοσύνη πολύ σύντομα θα τεθεί μπροστά μας”

Ομολογουμένως ο ανθρωπομορφισμός μας δεν είναι πάντα για καλό, ούτε για εμάς (αφού αν μη τι άλλο επιβεβαιώνει και παρατείνει τις προκαταλήψεις μας) ούτε για τους αποδέκτες του: Ακόμα δεν έχω καταλήξει αν, για παράδειγμα, τα σκυλιά, και μάλιστα ράτσες εργασίας όπως οι ποιμενικοί ή τα λαμπραντόρ, έχουν τελικά ωφεληθεί από αυτόν. Γεγονός όμως είναι ότι το φαινόμενο υπάρχει, και αν ίσως πάντοτε υπήρχε, τώρα τουλάχιστον δεν αποκρύπτεται ούτε απορρίπτεται κοινωνικά.

Τι μαθαίνουμε από όλα τα παραπάνω; Ότι το θέμα της συμπεριφοράς μας απέναντι στην Τεχνητή Νοημοσύνη, είτε ενσώματη σε μορφή ρομπότ είτε άυλη σε μορφή ψηφιακών βοηθών, πολύ σύντομα θα τεθεί μπροστά μας. Ο άνθρωπος θα βρεθεί πάλι μπροστά στο δίλημμα, τι να θεωρήσει ότι είναι (και επομένως πως να αντιμετωπίσει) κάτι με το οποίο έρχεται σε επαφή καθημερινά για την εκτέλεση των βασικών, καθημερινών του εργασιών.

Η απάντηση, που φυσικά δεν μπορεί να είναι μονολεκτική, είναι πολύ δύσκολο να δοθεί εδώ: Μπορεί, για παράδειγμα, να θεωρηθεί απαράδεκτο ηθικά να βρίσουμε τη Siri αλλά αποδεκτό να στείλουμε, όπως και κάνουμε ήδη, ρομπότ-στρατιώτες στον πόλεμο. Ή, να μην επιτρέπεται να την βρίσουμε όμως να μπορούμε να κάνουμε άλλα, ανομολόγητα, πράγματα μαζί της/του όπως επισημάνθηκε ήδη σε άλλο κείμενο εδώ στο 2045. Επομένως, για την ώρα το μόνο που μπορούμε να κάνουμε είναι να εντοπίσουμε το πρόβλημα – ίσως και την υπό διαμόρφωση ηθική, που αργά ή γρήγορα θα καταλήξει και σε νομοθετική παρέμβαση.