Παιδική πορνογραφία και revenge porn από ΑΙ: Μια (νέα) σκοτεινή πλευρά της Τεχνητής Νοημοσύνης

Η Κέλλυ Ιωάννου, διευθύντρια του CSI Institute και λέκτορας Εγκληματολογίας αναλύει στη HuffPost τους «άγνωστους» κινδύνους της νέας τεχνολογίας.
gremlin via Getty Images

H δυναμική έλευση της Τεχνητής Νοημοσύνης (ΑΙ) στη ζωή μας μπορεί να έγινε ευρύτερα αντιληπτή πρόσφατα χάρη στο ChatGPT, ωστόσο πρόκειται για μια διαδικασία που είναι σε εξέλιξη εδώ και χρόνια, επηρεάζοντας (άλλες φορές «αθόρυβα» και άλλες όχι) την καθημερινή μας ζωή με τρόπους που πολλοί δεν θα περίμεναν. Σε αυτό το πλαίσιο, προκύπτουν και ιδιαίτερα ανησυχητικά φαινόμενα, όπως η χρήση εργαλείων τεχνητής νοημοσύνης και τεχνολογίας deepfakes για παραγωγή περιεχομένου παιδικής ή/και εκδικητικής πορνογραφίας (revenge porn).

Το «πείραγμα» εικόνων και βίντεο δεν είναι ακριβώς κάτι καινούριο, ωστόσο οι δυνατότητες που παρέχονται με ευρέως διαθέσιμα πλέον στο Διαδίκτυο εργαλεία αλλάζουν δραστικά τα δεδομένα σε πολλούς χώρους: Τα deepfakes έχουν υποδειχθεί επανειλημμένα τα τελευταία χρόνια ως σοβαρός λόγος προβληματισμού, καθώς θεωρείται πως θα μπορούσαν να αποτελέσουν ισχυρό εργαλείο παραπληροφόρησης, ενώ πρόσφατα σχετικό ρεπορτάζ του BBC υπέδειξε τη χρήση εργαλείων ΑΙ από παιδόφιλους για τη δημιουργία αποκρουστικού ψηφιακού περιεχομένου το οποίο διακινούν και μέσω «mainstream», κατά τα άλλα, ιστοσελίδων, σε κάτι που χαρακτηρίζεται ως «πλημμύρα» τέτοιου υλικού.

Το περιεχόμενο αυτό, «εφόσον είναι συνθετικό», δεν έχει πραγματικούς πρωταγωνιστές, και ως εκ τούτου κάποιοι θα μπορούσαν να επιχειρήσουν να το εντάξουν στη σφαίρα μιας (νοσηρής, έστω) «μυθοπλασίας» ή κάποιας υποτιθέμενης μορφής «edgy καλλιτεχνικής έκφρασης» - ωστόσο εύκολα κατανοεί κανείς πως δεν είναι δύσκολο να περάσει κάποιος τη «διαχωριστική γραμμή» που χωρίζει το φανταστικό με το πραγματικό και να προβεί σε αντίστοιχες ενέργειες πάνω σε πραγματικούς ανθρώπους.

Επίσης, στην περίπτωση της τοποθέτησης προσώπων πραγματικών ατόμων σε βίντεο πορνογραφικού περιεχομένου, θα μπορούσε να μιλήσει κανείς για τον ορισμό της «εκδικητικής πορνογραφίας»: Την ψηφιακή μετατροπή του θύματος σε «πρωταγωνιστή» πράξεων και δραστηριοτήτων που πηγάζουν μόνο από τη φαντασία του δράστη.

Φαινόμενα τέτοιου είδους δεν απουσιάζουν από τη χώρα μας- και η Κέλλυ Ιωάννου, διευθύντρια του CSI Institute (Διεθνές Ινστιτούτο για την Κυβερνοασφάλεια) και λέκτορας Εγκληματολογίας, απάντησε σε μια σειρά από σχετικές ερωτήσεις της HuffPost.

Κέλλυ Ιωάννου

Πόσες καταγγελίες έχουν υπάρξει για περιπτώσεις περιεχομένου που δημιουργήθηκε μέσω εργαλείων Τεχνητής Νοημοσύνης;

Tο τελευταίο δίμηνο έχουμε τουλάχιστον 25 υποθέσεις - μα η απάντηση, δυστυχώς, δεν μπορεί να δοθεί μέσα από έναν αριθμό. Τα θύματα τέτοιων πρακτικών είναι πολλά περισσότερα απ’ όσα εν τέλει καταγγέλλουν αυτές τις συμπεριφορές. Ήδη υπάρχουν υποθέσεις, που έχουν απασχολήσει έντονα την επικαιρότητα, όπως οι ψεύτικες εικόνες της έκρηξης σε κτίριο κοντά στο Πεντάγωνο, αλλά και η περίπτωση ενός μαθητή, που κατασκεύασε γυμνές φωτογραφίες ανήλικων κοριτσιών και τις διαμοίρασε στο διαδίκτυο. Τα παραδείγματα της καθημερινής ζωής είναι πολλά, με αποτέλεσμα ο πραγματικός τους αριθμός να είναι σκοτεινός.

Για τι υλικό μιλάμε περισσότερο; Παιδική πορνογραφία, περιπτώσεις revenge porn, κάτι άλλο; Υπάρχει κάποιος τομέας στον οποίο εστιάζεται η χρήση τέτοιων εργαλείων;

Δεν υπάρχει ένας προκαθορισμένος τομέας, στον οποίο εστιάζεται η χρήση τέτοιων εργαλείων. Είναι αξιοποιήσιμα από τον οποιονδήποτε και σε οποιονδήποτε κλάδο. Η παραγωγική τεχνητή νοημοσύνη (generative AI) χρησιμοποιείται για παράδειγμα για τη δημιουργία τέχνης. Αυτά τα έργα τέχνης δημιουργούνται χρησιμοποιώντας αλγόριθμους, που εκπαιδεύονται αντλώντας πληροφορίες από το μοναδικό τρόπο σύνθεσης έργων -το στυλ- ανθρώπων καλλιτεχνών. Τα έργα αυτά, μάλιστα καταλήγουν ακόμα και σε εκθέσεις ή γκαλερί τέχνης και το βασικό πρόβλημα που εγείρεται αφορά την προστασία των πνευματικών δικαιωμάτων των καλλιτεχνών.

Σε μια πιο δυσοίωνη έκφανσή της η τεχνητή νοημοσύνη, απαντάται σε πολύ μεγάλο ποσοστό στην τεχνολογία των deepfakes. Ο όρος deepfakes χρησιμοποιείται για να περιγράψει τις εικόνες και τα βίντεο, τα οποία δημιουργούνται μέσω μιας μορφής τεχνητής νοημοσύνης, που ονομάζεται deep learning. Οι δράστες στοχεύουν, τις περισσότερες φορές, στη διάδοση ψευδών πληροφοριών, την παραπληροφόρηση και την χειριστική αντιμετώπιση του κοινού, την εξάπλωση της προπαγάνδας, τον εκβιασμό και την παραβίαση της ιδιωτικής ζωής των ατόμων. Για την εξυπηρέτηση αυτών των σκοπών κατασκευάζουν εικόνες με υποτιθέμενες αληθινές δηλώσεις ανθρώπων με επιρροή τόσο στο πολιτικό όσο και στο κοινωνικό γίγνεσθαι.

Επίσης, πολύ συχνά, αντικαθιστούν -με τρόπο μάλιστα ιδιαίτερα αληθοφανή- τα χαρακτηριστικά του προσώπου ενός ατόμου μ’ αυτά ενός άλλου μέσω ψηφιακής επεξεργασίας. Σ’ αυτήν την κατηγορία εντοπίζεται και η σύνδεση των εργαλείων τεχνητής νοημοσύνης και της διευκόλυνσης του διαμοιρασμού μη συναινετικού σεξουαλικού υλικού είτε αυτό αφορά ενήλικα είτε ανήλικα άτομα. Πιο συγκεκριμένα, τα deepfakes αυτά δημιουργούνται με την προσθήκη του προσώπου ενός ατόμου σε ένα βίντεο με πορνογραφικής φύσεως περιεχόμενο, με σκοπό να φαίνεται ότι πραγματικά συμμετέχει το ίδιο σ’ αυτό.

Tatiana Maksimova via Getty Images

Είναι παράνομο αυτό το υλικό; Τι προβλέπει ακριβώς ο νόμος, και πώς τον αξιολογείτε, δεδομένων των εξελίξεων στον τομέα;

Μέχρι στιγμής δεν υπάρχει κάποια νομοθεσία γύρω από την τεχνητή νοημοσύνη, του περιεχομένου που παράγεται μέσω αυτής και τους περιορισμούς χρήσης της. Ωστόσο, έχουν γίνει βήματα για τη θέσπιση σχετικής νομοθεσίας από την επιτροπή νομοθετών του Ευρωπαϊκού Κοινοβουλίου. Πρόκειται για τον πρώτο νόμο, που αφορά τα συστήματα τεχνητής νοημοσύνης στη Δύση, γνωστός ως European Artificial Intelligence Act (Ευρωπαϊκός Νόμος για την Τεχνητή Νοημοσύνη). Η Κίνα έχει ήδη αναπτύξει προσχέδια κανονισμών που έχουν ως στόχο τον έλεγχο του τρόπου με τον οποίο οι εταιρείες αναπτύσσουν συστήματα τεχνητής νοημοσύνης. Ο νόμος υιοθετεί μια προσέγγιση με βάση τον κίνδυνο για τον έλεγχο της τεχνητής νοημοσύνης, όπου οι δεσμεύσεις ενός συστήματος είναι ανάλογες με το εγγενές επίπεδο κινδύνου του εν λόγω συστήματος.

Ποια εργαλεία φαίνονται να χρησιμοποιούνται περισσότερο για τέτοιες δραστηριότητες;

Η απάντηση κι εδώ δεν μπορεί να είναι μόνο μία. Όλα εξαρτώνται από τον χρήστη-δράστη, το επίπεδο εξοικείωσής του με την τεχνολογία και τη χρήση παραγωγικής τεχνητής νοημοσύνης. Αξίζει εδώ να επισημανθεί ότι κανένα εργαλείο δεν είναι εγγενώς κακόβουλο. Τα εργαλεία αυτά έχουν δημιουργηθεί για να ανταποκρίνονται στις προτροπές, τις οδηγίες δηλαδή, που εισάγουν οι χρήστες.

Έχουν πέσει στην αντίληψή σας περιπτώσεις εμπορίας τέτοιου υλικού στην Ελλάδα; Αν ναι, υπάρχει κάποια εκτίμηση για το μέγεθος αυτής της «αγοράς»; Επίσης, έχουμε περιπτώσεις «παραγωγών» που δραστηριοποιούνται μέσα από γνωστές, νόμιμες κατά τα άλλα πλατφόρμες (patreon, onlyfans κλπ) δεχόμενοι ειδικές παραγγελίες από πελάτες;

Ένα σκάνδαλο που ξέσπασε σχετικά πρόσφατα και που το Διεθνές Ινστιτούτο για την Κυβερνοασφάλεια είναι το πρώτο που το ανέδειξε και του έδωσε την προβολή που χρειαζόταν να έχει για να προειδοποιηθούν οι πολίτες είναι το σκάνδαλο του Telegram.

Στην ουσία, το Telegram αποτελεί μια εφαρμογή ανταλλαγής κρυπτογραφημένων μηνυμάτων. Σ’ αυτήν, λοιπόν την πλατφόρμα, είχαν δημιουργηθεί ομαδικές συνομιλίες, που απαριθμούσαν χιλιάδες μέλη, τα οποία διακινούσαν παράνομα μεταξύ τους φωτογραφίες νυν και πρώην συντρόφων τους αλλά και τυχαίων γυναικών που μπορεί να συναντούσαν στον δρόμο. Ορισμένες από τις φωτογραφίες των πρώην και νυν συντρόφων μπορεί να ήταν πραγματικές, ωστόσο πολλές από τις φωτογραφίες τόσο αυτών των γυναικών όσο και των άγνωστων ήταν προϊόντα επεξεργασίας. Ακόμα και μια φωτογραφία όπου απεικονίζεται μια κοπέλα με ρούχα ή μαγιό, μπορεί να επεξεργαστεί με τέτοια λεπτομέρεια, ώστε να φαίνεται ότι το σώμα της είναι γυμνό.

Μια σχετικά καινούργια λειτουργία που χρησιμοποιεί τις δυνατότητες της τεχνητής νοημοσύνης είναι η δημιουργία ιστοσελίδων τύπου onlyfans, όπου οι χρήστες μπορούν να «δημιουργήσουν τη δική τους ιδανική εικονική κοπέλα, σχεδιασμένη να εκπληρώνει κάθε τους επιθυμία», όπως χαρακτηριστικά αναφέρει η ιστοσελίδα. Άνθρωποι με φαντασιώσεις που ενέχουν κακοποιητικές συμπεριφορές, έχουν τη δυνατότητα να τις αναπαριστούν και να τις πραγματώνουν μέσω αυτών των ιστοσελίδων. Μια τέτοια πρακτική, ενδέχεται, κάποια στιγμή να μην είναι το ίδιο αποτελεσματική ως προς την εκπλήρωση της φαντασίωσης και υπάρχει πιθανότητα τα άτομα να στραφούν σε πραγματικούς ανθρώπους.

Τι σας προβληματίζει περισσότερο για τον κλάδο σας γενικότερα σε σχέση με τα εργαλεία Τεχνητής Νοημοσύνης;

Το μεγαλύτερο μέρος της ανησυχίας εστιάζεται γύρω από κάθε μορφή ηλεκτρονικού εγκλήματος. Είτε μιλάμε για διαδικτυακές απάτες είτε για σεξουαλική κακοποίηση βάσει εικόνας, τα εργαλεία τεχνητής νοημοσύνης διευκολύνουν σε τρομακτικό βαθμό τη δράση κακόβουλων χρηστών.

Ένας βασικός προβληματισμός αφορά πως το μεγαλύτερο μέρος των ανθρώπων που αξιοποιούν τα εργαλεία τεχνητής νοημοσύνης με κακοποιητικό τρόπο, είναι άνθρωποι που έχουν έναν συγκεκριμένο τρόπο θέασης των πραγμάτων μη ωφέλιμο. Πιθανώς να είναι άνθρωποι οι οποίοι στον πραγματικό κόσμο έχουν δεχτεί κακοποιητικές συμπεριφορές, τις οποίες διοχετεύουν με έναν εξίσου δυσλειτουργικό τρόπο όσο θα ήταν και οποιαδήποτε μορφή βίας στον υπαρκτό κόσμο.

Δημοφιλή