Δικαιώματα υποχρεώσεις, ευθύνες και ποινές για τον υπολογιστή μου;

19 Ιουλίου 2022

Στις 25 Μαΐου του 2016, ο   Adam Keiper κατέθεσε ενώπιον του Κογκρέσου των Ηνωμένων Πολιτειών, μία πρόταση  σχετικά με τις συνέπειες του αυτοματισμού και της ρομποτικής για την οικονομική και κοινωνική ζωή των ανθρώπων στο εγγύς μέλλον[1]. Ανάμεσα σε άλλα αναφέρθηκε και στα νομικά ζητήματα που θα προκύψουν σχετικά με νομικές και ποινικές ευθύνες αλλά και δικαιώματα, τα οποία  πιθανόν να πρέπει να αποδοθούν στα ρομπότ. Για παράδειγμα, σε περιπτώσεις ατυχημάτων με υπαιτιότητα των αυτοκινούμενων οχημάτων, ποιος θα πληρώσει την οικονομική αποζημίωση[2]; Τι θα συμβεί σε περίπτωση αποτυχημένης χειρουργικής επέμβασης ασθενούς από ρομπότ χειρούργο ή ποιος θα απολαμβάνει τα πνευματικά δικαιώματα από τη δημιουργία κάποιου έργου[3];

Τον Ιανουάριο του 2017, η Επιτροπή Νομικών Υποθέσεων κατέθεσε στο Ευρωπαϊκό κοινοβούλιο σχέδιο ψηφίσματος για την αναγνώριση των ρομπότ, ως «ηλεκτρονικά πρόσωπα», ώστε οι ιδιοκτήτες τους να πληρώνουν φόρους και ασφαλιστικές εισφορές[4]. Σύμφωνα με τις προσδοκίες και τη φιλοσοφία των Μετανθρωπιστών, αυτό είναι μόνο η αρχή. Στο μέλλον τις εισφορές για τα ρομπότ δεν θα πληρώνουν οι ιδιοκτήτες τους, αλλά τα ίδια τα ρομπότ. Πρόκειται για την επαλήθευση των προφητικών νόμων του επιστήμονα και συγγραφέα έργων επιστημονικής φαντασίας Ισαάκ Ασιμοφ[5]; Πολύ πιθανό. Για τους Μετανθρωπιστές, η ηθική κατάσταση είναι κάτι το οποίο μπορεί να αποδοθεί  και σε  μη βιολογικούς οργανισμούς[6]. Οι προϋποθέσεις που χρειάζεται ένας μη βιολογικός οργανισμός για να δικαιούται ηθικής αξιολόγησης, είναι το να έχει βιωματική αίσθηση (qualia), δηλαδή να μπορεί να βιώνει χαρά, λύπη, πόνο, φόβο κλπ. ή να έχει την ικανότητα της αυτογνωσίας[7].Αυτά τα δύο μπορεί να συνυπάρχουν αλλά για τον Bostrom αυτό δεν είναι απαραίτητο, αφού ακόμα και αν συντρέχει μόνο η πρώτη προϋπόθεση, όπως για παράδειγμα συμβαίνει με το ζωικό βασίλειο,  θα πρέπει το τεχνητό αυτό ον να δικαιούται ηθικής αξίας[8].  Για τον Μετανθρωπισμό, η μελλοντική κοινωνία θα είναι δίκαιη μόνο όταν θεωρούνται ισότιμα όλα τα όντα, είτε πρόκειται για βιολογικό οργανισμό, είτε για τεχνητό, δηλαδή ανεξάρτητα από το αν  θα προέρχεται από το ανθρώπινο αναπαραγωγικό σύστημα, ή από ψηφιακή αντιγραφή[9]. Παράλληλα, θα πρέπει να ληφθεί υπόψη το ισχυρό ενδεχόμενο, να υπάρξουν κάποια πρόσθετα ή διαφοροποιημένα δικαιώματα για αυτούς τους οργανισμούς, αφού είναι πιθανό  να έχουν διαφορετική αντίληψη σε σχέση με τους ανθρώπους, λόγου χάρη στην αίσθηση του χρόνου, ή του πόνου[10].

Για την ορθόδοξη θεολογία, η ηθική υπόσταση έχει άμεση σχέση με κάποιες ιδιότητες, οι οποίες, συνδέονται με την ανθρώπινη φύση. Στο σημείο αυτό όμως θα πρέπει να διευκρινιστεί ποια είναι η έννοια της  ηθικής υπόστασης, η οποία όσον αφορά στον άνθρωπο δεν εξαντλείται μόνο στα δικαιώματα, αλλά περιλαμβάνει και ευθύνες. Με άλλα λόγια, ο άνθρωπος έχει ηθική υπόσταση, γιατί έχει το χάρισμα της αξιολογικής διάκρισης από το οποίο προκύπτουν τα δικαιώματα αλλά και οι υποχρεώσεις του. Η φύση στερείται ηθικής υπόστασης γιατί στερείται και της κριτικής ικανότητας, αλλά παρόλαυτά σύμφωνα με την  πίστη της Εκκλησίας,  κάθε δημιούργημα του Θεού είναι καλό[11] και δικαιούται σεβασμού, προστασίας και  φροντίδας. Ακόμα περισσότερο, είναι βασική διδασκαλία του Χριστιανισμού ότι  χρέος του ανθρώπου είναι να οδηγήσει και τη φύση στη σωτηρία, αφού στόχος της δημιουργίας είναι η σωτηρία του κόσμου[12].Παρά τις κατά καιρούς ανθρωποκεντρικές ερμηνείες της Παλαιάς διαθήκης για τη σχέση του ανθρώπου με τη φύση, στην πραγματικότητα πολλοί ήταν οι Πατέρες και οι Άγιοι της Εκκλησίας που ανέπτυξαν μία σχέση αδελφοσύνης με το ζωικό ακόμα και το φυτικό βασίλειο[13]. Η ηθική υπόσταση αναφέρεται στα δικαιώματα, αλλά κυρίως στις ευθύνες, στις υποχρεώσεις και στην αξιολόγηση των πράξεών. Η ηθική είναι ο τρόπος ζωής, με βάση τις ιδιαίτερες επιλογές και για τον λόγο αυτό  μόνο ένα ον με αυτοσυνειδησία και περιθώρια επιλογών δικαιούται αξιολογικής κρίσεως. Αντίθετα τα υπολογιστικά συστήματα, όσο εξελιγμένα και να είναι, στερούνται ηθικής υπόστασης, γιατί λείπει από αυτά  η δυνατότητα της επιλογής, αφού στην πραγματικότητα κινούνται στα συγκεκριμένα πλαίσια που έχει ορίσει ο κατασκευαστής τους. Επί του προκειμένου, ενδεικτική είναι η  φράση του Bostrom στο άρθρο του «The ethics of Artificial Intelligens», ότι «θα ήταν λάθος να δημιουργήσουμε μία μηχανή με σταθερή ηθική, γιατί η ηθική δεν μένει ίδια στον χρόνο αλλά αλλάζει, άρα η μεγάλη δυσκολία είναι ότι εφόσον δεν γνωρίζουμε την ηθική του μέλλοντος, πως θα φτιάξουμε ένα σύστημα με σταθερή και άρα μελλοντικά παρωχημένη αίσθηση της ηθικής αξίας»[14]. Με τον συγκεκριμένο προβληματισμό γίνεται φανερό ότι  τα συστήματα αυτά λειτουργούν στη βάση εντολών και προγραμματισμού, χωρίς ουσιαστική δυνατότητα αυτενέργειας και μεταβολής. Εφόσον είναι δύσκολο να αποδοθούν ευθύνες  στα ρομπότ,  μήπως όμως θα μπορούσαν να αναγνωριστούν  σε αυτά κάποια δικαιώματα; Ωστόσο για να γίνει αυτό θα πρέπει τα συστήματα με ΤΝ να είναι προικισμένα με την ικανότητα της βιωματικής και συναισθηματικής εμπειρίας γεγονός το οποίο  τώρα παραμένει απραγματοποίητο, ενώ φαίνεται εξαιρετικά απίθανο να μπορέσει κάποτε να πραγματοποιηθεί.  Κατά συνέπεια μία ενδεχόμενη απόδοση ευθυνών και δικαιωμάτων σε ένα υπολογιστικό σύστημα, από το οποίο απουσιάζει  η συνείδηση, φαντάζει εντελώς ανεδαφική.

Διαβάστε ολόκληρη τη μελέτη εδώ

 

Παραπομπές:

[1] A. Keiper, « Automation, Robotics and the economy», στον διαδικτυακό τόπο: https://www.thenewatlantis.com/futurisms/automation-robotics-and-economy (ημερομηνία ανάκτησης: 7/5/2021)

[2] Όπ.

[3] Όπ.

[4] Π. Παπακωνσταντίνου, Άνθρωποι και Ρομπότ, Οι προκλήσεις της Τεχνητής Νοημοσύνης,181.

[5] Το 1950 κυκλοφόρησε το συγκλονιστικό βιβλίο του Ισαάκ Ασίμωφ, Εγώ, το ρομπότ, στο οποίο γίνεται λόγος για τους τρείς νόμους της ρομποτικής: Τα ρομπότ δεν επιτρέπεται να βλάψουν άνθρωπο, τα ρομπότ πρέπει να υπακούουν στους ανθρώπους εκτός αν πρόκειται να παραβιαστεί ο πρώτος νόμος και τα ρομπότ πρέπει να προστατεύουν την ύπαρξή τους, εκτός αν πρόκειται να παραβιαστούν οι δύο πρώτοι νόμοι. Βλ. Ε. Αναστασοπούλου, « Η Τεχνητή νοημοσύνη και οι εφαρμογές της»,36.

[6]N. Bostrom,. , E. Yudkowsky, «The ethics of Artificial Intelligens», Cambridge Handbook of Artificial Intelligence (Cambridge University Press, 2011)7.

[7] Όπ.,6.

[8] Όπ.,7.

[9] Όπ.,7-8.

[10] Όπ.,9.

[11] Γεν.,1:1-31.

[12] Αν. Μαρά, «Σύγχρονα ζητήματα οικολογίας και βιοηθικής», στο Σπ. Αθανασοπούλου-Κυπρίου, Στ. Γιαγκάζογλου, Αν Μαράς Ορθοδοξία και [Μετα-]νεωτερικότητα (Πάτρα: εκδ. Ελληνικού Ανοικτού Πανεπιστημίου,2008)157.

[13] Όπ.,144,156.

[14] N. Bostrom,. , E. Yudkowsky, «The ethics of Artificial Intelligens»,17.