ΟΗΕ: Προειδοποίηση για τους κινδύνους της Τεχνητής Νοημοσύνης

Η Ύπατη Αρμοστής του ΟΗΕ για τα Ανθρώπινα Δικαιώματα τόνισε την ανάγκη για μορατόριουμ στα συστήματα Α.Ι.
Open Image Modal
Oscar Wong via Getty Images

Η Ύπατη Αρμοστής του ΟΗΕ για τα Ανθρώπινα Δικαιώματα, Μισέλ Μπατσελέτ, τόνισε την άμεση ανάγκη για μορατόριουμ ως προς την πώληση και τη χρήση συστημάτων τεχνητής νοημοσύνης που συνιστούν σοβαρό κίνδυνο για τα ανθρώπινα δικαιώματα μέχρι να τεθούν σε ισχύ επαρκείς «δικλείδες ασφαλείας». Επίσης, ζήτησε να απαγορευτούν εφαρμογές τεχνητής νοημοσύνης η χρήση των οποίων δεν είναι δυνατόν να γίνεται με σεβασμό προς τα ανθρώπινα δικαιώματα.

«Η Τεχνητή Νοημοσύνη μπορεί να είναι μια δύναμη για καλό, βοηθώντας τις κοινωνίες να υπερβαίνουν κάποιες από τις μεγάλες προκλήσεις της εποχής μας. Μα οι τεχνολογίες Τεχνητής Νοημοσύνης μπορούν να έχουν αρνητικές, ακόμα και καταστροφικές επιπτώσεις, αν χρησιμοποιούνται χωρίς να λαμβάνεται επαρκώς υπόψιν το πώς επηρεάζονται τα ανθρώπινα δικαιώματα» είπε η Μπατσελέτ.

Στο πλαίσιο της δουλειάς του πάνω στην τεχνολογία και τα ανθρώπινα δικαιώματα, το Γραφείο του Ύπατου Αρμοστή του ΟΗΕ για τα Ανθρώπινα Δικαιώματα δημοσιοποίησε μια αναφορά στο πλαίσιο της οποίας αναλύεται πώς η Τεχνητή Νοημοσύνη- profiling, αυτοματοποιημένη λήψη αποφάσεων, άλλες τεχνολογίες machine learning- επηρεάζει το δικαίωμα του ανθρώπου στην ιδιωτικότητα, καθώς και άλλα δικαιώματα, όπως στην υγεία, στη μόρφωση, στην ελευθερία μετακινήσεων, έκφρασης κ.α.

«Η Τεχνητή Νοημοσύνη πλέον αγγίζει κάθε γωνία των ζωών μας, ακόμα και τις συναισθηματικές μας καταστάσεις. Συστήματα Τεχνητής Νοημοσύνης χρησιμοποιούνται για να ορίσουν ποιοι λαμβάνουν δημόσιες υπηρεσίες, αποφασίζουν ποιος έχει την ευκαιρία να προσληφθεί σε μια δουλειά, και φυσικά επηρεάζουν τις πληροφορίες βλέπουν και μοιράζονται online οι άνθρωποι» είπε η Ύπατη Αρμοστής.

Στο πλαίσιο της αναφοράς εξετάζεται το πώς κράτη και επιχειρήσεις έχουν σε πολλές περιπτώσεις βιαστεί να θέσουν σε χρήση εφαρμογές Τεχνητής Νοημοσύνης, χωρίς να λάβουν τα απαραίτητα μέτρα. Έχουν υπάρξει ήδη πολλές περιπτώσεις ανθρώπων που έχουν αντιμετωπιστεί με άδικο τρόπο λόγω της Α.Ι. - πχ έχουν συλληφθεί λόγω προβλημάτων στην αναγνώριση προσώπου, ή δεν έχουν λάβει κοινωνικές παροχές λόγω προβληματικών εργαλείων Α.Ι.

Στη συγκεκριμένη έκθεση αναλύεται πώς τα συστήματα Τεχνητής Νοημοσύνης βασίζονται σε μεγάλα data sets, με τις πληροφορίες για τους ανθρώπους να συλλέγονται, να διαμοιράζονται, να συγχωνεύονται και να αναλύονται με πολλαπλούς, και συχνά αδιαφανείς τρόπους. Τα δεδομένα που χρησιμοποιούνται για την καθοδήγηση των συστημάτων Α.Ι. μπορεί να είναι προβληματικά, να κάνουν διακρίσεις, να είναι ετεροχρονισμένα ή να είναι άσχετα. Η μακροπρόθεσμη αποθήκευση δεδομένων επίσης εμπεριέχει κινδύνους, καθώς τα δεδομένα στο μέλλον θα μπορούσαν να χρησιμοποιηθούν με τρόπους που είναι ακόμα άγνωστοι. Επίσης, τονίζεται πως χρειάζεται μεγαλύτερη διαφάνεια από πλευράς επιχειρήσεων και κρατών ως προς την ανάπτυξη και τη χρήση της Α.Ι.