Τι συμβαίνει όταν ένα άψυχο μηχάνημα διαθέτει τεχνητή νοημοσύνη σε επαρκή βαθμό ούτως ώστε, με πρόθεση ή χωρίς, να είναι σε θέση να απειλήσει ή ακόμη και να αφαιρέσει την ανθρώπινη ζωή; Για παράδειγμα, αν υποθέσουμε πως ρομπότ-εργάτης σε εργοστάσιο παρεκκλίνει από την εργασία του και χρησιμοποιήσει τα όποια εργαλεία βρίσκονται στη διάθεση του (ας υποθέσουμε ότι έχει προγραμματιστεί να γνωρίζει πως να τα χρησιμοποιεί) για να σκοτώσει ένα φυσικό πρόσωπο που βρίσκεται στον χώρο. Ποιος θα διωχθεί για τον θάνατο αυτό; Ο κατασκευαστής του; Ο προγραμματιστής του; Η εταιρεία η οποία αξιοποιούσε το ρομπότ;
abidal via Getty Images

To «Εγχειρίδιο Ρομποτικής» του έτους 2058, προνοεί τους τρεις νόμους της ρομποτικής:

«Πρώτος Νόμος: Το ρομπότ δε θα τραυματίσει άνθρωπο, ούτε θα επιτρέψει, δια της αδράνειας του, να παραβλαφθεί άνθρωπος.

Δεύτερος Νόμος: Το ρομπότ πρέπει να υπακούει τις διαταγές που του δίνουν οι άνθρωποι, εκτός όπου αυτές οι διαταγές συγκρούονται με τον πρώτο νόμο.

Τρίτος Νόμος: Το ρομπότ οφείλει να προστατεύει την ύπαρξή του, εφόσον τέτοια προστασία δεν συγκρούεται με τον πρώτο ή τον δεύτερο νόμο.»

Αυτή η επίπλαστη νομοθεσία ασφαλώς ισχύει μόνο στο μυθιστορηματικό σύμπαν του Isaac Asimov («Εγώ, το Ρομπότ», 1950). Η αυτοβουλία ενός ρομπότ, όμως, όπως αναδεικνύεται στις σελίδες των ιστοριών του Asimov, ασφαλώς προϋποθέτει αυτό να διαθέτει κάποια νοημοσύνη. Η νοημοσύνη που αναπτύσσεται στο πλαίσιο άψυχων μηχανών έχει κρυσταλλοποιηθεί υπό τον όρο «τεχνητή νοημοσύνη».

Μια καθόλου μυθιστορηματική προσέγγιση στο ζήτημα της τεχνητής νοημοσύνης διατυπώθηκε το 1950 από τον Alan Turing, τον λαμπρό επιστήμονα που στο ευρύ κοινό είναι πιο γνωστός για τη συμβολή του στην αποκρυπτογράφηση του κώδικα των μηχανών «Enigma» της Wehrmacht. Ο Turing έθεσε ουσιαστικά το ερώτημα του κατά πόσο μπορούν να σκεφτούν οι μηχανές, ταυτόχρονα αναπτύσσοντας τη δική του μέθοδο για την απάντησή του. Η διεργασία αυτή οδήγησε στην καθιέρωση του "Turing test", δηλαδή του ελέγχου ως προς το κατα πόσο μια μηχανή είναι σε θέση να παρουσιάσει νοημοσύνη ίση με, ή απαράλλακτη από, την αντίστοιχη ανθρώπινη. Η πρακτική εφαρμογή του Turing test απαιτεί μια τέτοια νοημοσύνη να γίνει αντιληπτή ως ανθρώπινη, εν αγνοία του παρατηρητή για την πραγματική της ταυτότητα.

Όσο εξελίσσεται η ανάπτυξη της τεχνητής νοημοσύνης (σε διάφορα περιεχόμενα), τόσο περισσότερο αυξάνεται η πιθανότητα τελεσφόρησης της «μοναδικότητας» (ή «singularity», αγγλιστί). Η «μοναδικότητα» αφορά την υποθετική εκείνη χρονική στιγμή κατά την οποία η τεχνητή νοημοσύνη θα φθάσει στο επίπεδο υπό το οποίο θα δύναται ο άψυχος φορέας της να εκτελέσει, νοητικά ισάξια, οποιαδήποτε ανθρώπινη ενέργεια ή πράξη. Προφανώς κατά την υποτιθέμενη αυτή στιγμή, το Turing test (υπο τη μορφή που διατυπώθηκε ανωτέρω) θα έχει ήδη ικανοποιηθεί, τουλάχιστον σε ότι αφορά το πρώτο διαζευκτικό - και αυστηρότερο - σκέλος του.

Συνεπώς, όσο προσεγγίζουμε χρονικά την υποτιθέμενη «μοναδικότητα», τόσο πιθανότερη καθίσταται η πιθανότητα να καταστεί αναγκαία η υιοθέτηση στη διεθνή και ή τις εθνικές έννομες τάξεις νομοθετικών εργαλείων που να ρυθμίζουν την συμπεριφορά των τεχνητώς νοημόνων κατασκευών.

Ένα τέτοιο ρυθμιστικό πλαίσιο δεν θα είναι μόνο προληπτικής φύσεως αλλά και κατασταλτικής. Κατασταλτικής, καθότι εκεί όπου η «μοναδικότητα» όντως υλοποιηθεί, οποιαδήποτε περαιτέρω εξέλιξη στην τεχνητή νοημοσύνη λαμβάνει χώρα μετά από την στιγμή εκείνη θα είναι εκτός του δικού μας ελέγχου, εφόσον θα πρόκειται για νοημοσύνη που θα ξεπεράσει την ανθρώπινη. Συνεπώς, αν ακολουθηθεί η εν λόγω υποθετική αλληλουχία, ο Νόμος θα πρέπει να προνοήσει για την καταστολή πράξεων ή παραλείψεων που τυχόν παραβαίνουν τις οποιεσδήποτε προληπτικής χροιάς ρυθμίσεις του.

Αν όλα αυτά φαίνονται εκ πρώτης όψεως υπερβολικές υποθέσεις για ένα μακρινό, ενδεχομένως ουτοπικό, μέλλον, προφανώς δεν είμαι ο κατάλληλος άνθρωπος για να διαφωτίσω για την τεχνολογική εξέλιξη που αφορά την τεχνητή νοημοσύνη. Ούτε όμως προσφέρεται ο χώρος αυτός για ουσιώδη, εκτενή και εις βάθος ανάλυση της οποιασδήποτε δικαιϊκής θεωρίας αφορά το ίδιο ζήτημα.

Ίσως όμως με αναφορά σε κάποια παραδείγματα, να περιέλθει ο καθείς σε θέση να εκτιμήσει κατά πόσο θα έρθουμε αντιμέτωποι με την ανάγκη επέκτασης και ανάπτυξης του Δικαίου για χειρισμό της ίδιας μας της τεχνολογικής ανάπτυξης στον τομέα αυτό. Ήδη διάφορες πτυχές της ψηφιακής εποχής, κυρίως εμπορικής φύσης, ρυθμίζονται (ενίοτε υπερβολικά), εντούτοις το ζήτημα της τεχνητής νοημοσύνης στα επίπεδα που πιθανολογεί η πραγματοποίηση της «μοναδικότητας» είναι μια εντελώς διακριτή τεχνολογική σφαίρα και συνεπώς εμπίπτει σε μια εντελώς νέα σφαίρα δικαίου, ανύπαρκτης προς το παρόν.

Ας αναλογιστούμε πρώτα ένα παράδειγμα σε επίπεδο αστικής ευθύνης, με μια περίπτωση που αφορά μια τεχνολογική εξέλιξη πολύ πρώιμη σε σχέση με τα όσα εμπερικλείει η «μοναδικότητα», αλλά της οποίας η ώρα έχει φτάσει: ένα όχημα το οποίο κατευθύνεται χωρίς ανθρώπινη οδήγηση.

Αν, για παράδειγμα, σε ένα αυτοκίνητο χωρίς οδηγό εισάγεται η εντολή να διανύσει την απόσταση από το σημείο Α στο σημείο Β, χωρίς οποιαδήποτε περαιτέρω οδηγία (η πτυχή της τεχνητής νοημοσύνης δεν έγκειται μόνο στο αυτόνομο της οδήγησης αλλά και στη δυνατότητα λήψης αποφάσεων κατά την οδήγηση). Το εν λόγω αυτοκίνητο, κατά τη διάρκεια της διαδρομής του από το σημείο Α στο σημείο Β, υπό συνθήκες που δεν θα μας απασχολήσουν καθώς ίσως αποκαλύψουν άλλα νομικά ζητήματα, προσκρούει σε ένα μανάβικο, καταστρέφοντας ολοσχερώς την εξωτερική υποδομή και τα προϊόντα του.

Προφανώς ο μανάβης θα αναζητήσει αποζημιώσεις για την ζημιά του, υπό διάφορες μορφές. Εναντίον ποίου στρέφεται; Του προσώπου που εισήγαγε τις οδηγίες στο αυτοκίνητο; Του προσώπου που βρισκόταν εντός του; Του κατασκευαστή του αυτοκινήτου; Του κατασκευαστή του λογισμικού του αυτοκινήτου; Υπό συγκεκριμένα πλαίσια, ο κάθε ένας από αυτούς ενδεχομένως να έχει ευθύνη, αναλόγως των περιστάσεων. Για παράδειγμα, αν υποθέσουμε ότι το πρόσωπο που ήταν εντός του αυτοκινήτου είχε πρόσβαση και γνώση να ανατρέψει τις εντολές του αυτοκινήτου και συνεπώς την πορεία του. Διαφοροποιείται εντελώς η πιθανή ευθύνη του. Σίγουρα όμως ο κατασκευαστής και ο προγραμματιστής του λογισμικού θα φέρουν πρωταρχική ευθύνη αν αποδοθεί σε κατασκευαστικό πρόβλημα το δυστύχημα. Συνεπώς, ίσως μια κατάλληλη προσέγγιση στο ζήτημα να ήταν η θέσπιση αυστηρής ευθύνης, όπως ισχύει και στην πλειοψηφία ελαττωματικών προϊόντων σε πολλά νομικά συστήματα.

Κάνοντας μια απότομη στροφή προς την ποινική ευθύνη και μάλιστα την βαρύτερη μορφή της, το ζήτημα σίγουρα θα μας απασχολήσει πιο σοβαρά. Τι συμβαίνει όταν ένα άψυχο μηχάνημα διαθέτει τεχνητή νοημοσύνη σε επαρκή βαθμό ούτως ώστε, με πρόθεση ή χωρίς (που αμφότερα απαιτούν τεράστια ανάλυση), να είναι σε θέση να απειλήσει ή ακόμη και να αφαιρέσει την ανθρώπινη ζωή;

Για παράδειγμα, αν υποθέσουμε πως ρομπότ-εργάτης σε εργοστάσιο παρεκκλίνει από την εργασία του και χρησιμοποιήσει τα όποια εργαλεία βρίσκονται στη διάθεση του (ας υποθέσουμε ότι έχει προγραμματιστεί να γνωρίζει πως να τα χρησιμοποιεί) για να σκοτώσει ένα φυσικό πρόσωπο που βρίσκεται στον χώρο. Ποιος θα διωχθεί για τον θάνατο αυτό; Ο κατασκευαστής του; Ο προγραμματιστής του; Η εταιρεία η οποία αξιοποιούσε το ρομπότ; Θα υπάρχει νομοθετημένο αδίκημα για το ίδιο το ρομπότ; Με ποια συστατικά στοιχεία; Δυστυχώς, οι απαντήσεις δεν είναι απλά περίπλοκες, εξαρτώμενες από πληθώρα παραγόντων, ενδεχομένως να είναι και ασύλληπτη υπό το υφιστάμενο νομικό πλαίσιο, ακόμη και υπό την υφιστάμενη δικαιϊκή σκέψη.

Αν απομακρυνθούμε δε κάπως από την αοριστία της «μοναδικότητας» και τον ενδεχόμενο πλεονασμό του Turing test, μπορούμε να υποθέσουμε οτι μια αποδεκτή κατάσταση πραγμάτων όπου η τεχνητή νοημοσύνη θα απαιτεί νομοθετικό πλαίσιο ρύθμισής της θα είναι όταν αυτή παρουσιάσει συγκεκριμένα χαρακτηριστικά. Συνεπώς, φορέας τεχνητής νοημοσύνης που θα μπορεί να παρουσιάζει συμπεριφορά η οποία διαπνέεται, βασίζεται και εκπορεύεται από λογική και κρίση, ικανότητα μάθησης και χρήσης της όποιας γνώσης ως επίσης ικανότητα σχεδιασμού, ενδεχομένως να είναι σε θέση να ικανοποιήσει τα συστατικά στοιχεία διαφόρων αδικημάτων, τόσο σε οτι αφορά την πρόθεση (mens rea) όσο και σε ότι αφορά την ίδια την διάπραξη (actus reus). Είναι όμως αυτή η πρέπουσα οδός;

Είναι προφανές ότι τα παραδείγματα με το αυτοκίνητο και το ρομπότ εργάτη είναι ευθυνοπαγή. Το Δίκαιο γνωρίζει την ευθύνη σε οποιοδήποτε πρόσωπο έχει προσωπικότητα στην έννοια του Δικαίου. Τα ερωτήματα που τέθηκαν στο πλαίσιο των παραδειγμάτων αυτών, ιδίως στον τομέα του ποινικού δικαίου, είναι τόσο αχανή για τη Νομική Επιστήμη, που σε αυτό το σημείο αρκεί απλά να πούμε πως υπάρχουν περισσότερες από μια προσεγγίσεις για αντιμετώπιση τέτοιων ενδεχομένων. Ο κίνδυνος όμως που υπάρχει αν δεν ενεργήσουμε άμεσα, είναι ορατός, εξ ου και οι σχετικές «προειδοποιήσεις» προσωπικοτήτων όπως ο Καθηγητής S. Hawking, ο Ellon Musk και ο Bill Gates.

Προσωπική μου άποψη είναι πως πρέπει να αποφευχθεί η απόδοση προσωπικότητας σε μηχανήματα, ανεξαρτήτως της νοημοσύνης που θα αναπτύξουν. Δηλαδή, θα πρέπει να αποφευχθεί η αναγωγή του οποιουδήποτε μηχανήματος, ανεξαρτήτως νοημοσύνης, σε υποκείμενο του Δικαίου. Στο πλαίσιο αυτό, θα μπορέσει να αντιμετωπιστεί ο όποιος κίνδυνος προκύψει από τεχνητώς νοήμονα μηχανήματα δια μέσου της απόδοσης ευθύνης για τις πράξεις και παραλείψεις τους στα πρόσωπα στα οποία ανέκαθεν το Δίκαιο γνώριζε ευθύνη, εμάς τους ίδιους.

Δημοφιλή