Δημοσιογραφική επιμέλεια Νίκος Λυκούδης
Νέο νομικό μέτωπο ανοίγει για την OpenAI στις ΗΠΑ, μετά τη μαζική σφαγή σε σχολείο της Βρετανικής Κολομβίας στον Καναδά, όπου οκτώ άνθρωποι, ανάμεσά τους έξι παιδιά, έχασαν τη ζωή τους. Οικογένειες θυμάτων κατέθεσαν αγωγές σε δικαστήριο της Καλιφόρνιας, κατηγορώντας την εταιρεία τεχνητής νοημοσύνης και τον CEO της, Σαμ Άλτμαν, ότι δεν ενημέρωσαν τις αρχές, παρότι – σύμφωνα με τις αγωγές – είχαν εντοπιστεί επικίνδυνες αλληλεπιδράσεις του δράστη με το ChatGPT.
Επτά οικογένειες θυμάτων της επίθεσης στο Τάμπλερ Ριντζ της Βρετανικής Κολομβίας στρέφονται νομικά κατά της OpenAI και της ηγεσίας της, μετά το μακελειό που συγκλόνισε τον Καναδά τον περασμένο Φεβρουάριο.
Ο 18χρονος Τζέσι Βαν Ρούτσελααρ άνοιξε πυρ σε δευτεροβάθμιο σχολείο της περιοχής, σκοτώνοντας οκτώ ανθρώπους. Ανάμεσα στα θύματα ήταν έξι παιδιά.
Σύμφωνα με όσα αναφέρονται στις αγωγές, η δραστηριότητα του δράστη στο ChatGPT είχε εντοπιστεί μήνες πριν από την επίθεση από την ομάδα ασφαλείας της OpenAI, καθώς περιλάμβανε αναφορές σε ένοπλη βία. Παρά ταύτα, όπως υποστηρίζουν οι οικογένειες, η εταιρεία δεν ενημέρωσε τις τοπικές αρχές.
Οι ενάγοντες κατηγορούν την OpenAI και τον Σαμ Άλτμαν για αμέλεια, αλλά και για αποτυχία να ενεργήσουν εγκαίρως απέναντι σε μια πιθανή απειλή. Στο επίκεντρο των αγωγών βρίσκεται ο ισχυρισμός ότι η εταιρεία είχε πλήρη γνώση των επικίνδυνων συνομιλιών του δράστη, στις οποίες – σύμφωνα με τα δημοσιεύματα – περιγράφονταν σενάρια ένοπλης βίας.
Ο Σαμ Άλτμαν ζήτησε συγγνώμη από τις οικογένειες των θυμάτων, αναγνωρίζοντας την αποτυχία της εταιρείας να ειδοποιήσει την αστυνομία.
«Λυπάμαι βαθιά που δεν ειδοποιήσαμε τις αρχές», ανέφερε σε ανοιχτή επιστολή που δημοσιεύθηκε από το τοπικό μέσο Tumbler RidgeLines.
Οι κατηγορίες κατά της OpenAI
Σύμφωνα με το BBC, οι αγωγές υποστηρίζουν ότι η OpenAI δεν αντέδρασε παρά το γεγονός ότι είχε στη διάθεσή της πληροφορίες για τις συνομιλίες του υπόπτου με το ChatGPT.
Στο δικόγραφο αναφέρεται ότι η ανώτερη ηγεσία της εταιρείας απέφυγε να ειδοποιήσει την αστυνομία, λαμβάνοντας – σύμφωνα πάντα με τους ενάγοντες – απόφαση που επηρεάστηκε από ζητήματα φήμης και αποτίμησης της εταιρείας.
Η αγωγή υποστηρίζει ότι η OpenAI επέλεξε να προστατεύσει τα εταιρικά της συμφέροντα και την αποτίμησή της, η οποία αναφέρεται ότι ανέρχεται σε 850 δισ. δολάρια.
«Αποφάσισαν ότι η ασφάλεια των παιδιών του Τάμπλερ Ριντζ ήταν ένα αποδεκτό ρίσκο», σημειώνεται χαρακτηριστικά στην αγωγή.
Οι νέες αγωγές κατατέθηκαν από κοινή νομική ομάδα από τις ΗΠΑ και τον Καναδά και αναμένεται να αντικαταστήσουν προηγούμενη αγωγή που είχε υποβληθεί από την οικογένεια της 12χρονης Μάγια Γκέμπαλα, επιζώσας της επίθεσης, η οποία εξακολουθεί να νοσηλεύεται μετά από τρεις πυροβολισμούς.
Ο δικηγόρος των οικογενειών, Τζέι Έντελσον, δήλωσε ότι αναμένει να καταθέσει περισσότερες από 20 αγωγές εκ μέρους θυμάτων και μελών της κοινότητας του Τάμπλερ Ριντζ κατά της OpenAI, ζητώντας δίκη με ενόρκους σε κάθε υπόθεση.
Η απάντηση της εταιρείας
Η OpenAI, απαντώντας στις αγωγές, ανέφερε ότι έχει «μηδενική ανοχή» στη χρήση των εργαλείων της για την υποστήριξη πράξεων βίας.
Η εταιρεία υποστήριξε επίσης ότι έχει ενισχύσει τα μέτρα ασφαλείας της, με βελτιωμένες αξιολογήσεις και διαδικασίες κλιμάκωσης για τον εντοπισμό πιθανών απειλών βίας.
Παράλληλα, δημοσίευσε ανάρτηση στο blog της, στην οποία εξηγεί πώς ανταποκρίνεται σε χρήστες που εμφανίζουν επικίνδυνη συμπεριφορά στο ChatGPT.
Η υπόθεση έρχεται σε μια περίοδο κατά την οποία οι εταιρείες τεχνητής νοημοσύνης βρίσκονται αντιμέτωπες με ολοένα αυξανόμενη πίεση για τη διαχείριση επικίνδυνων χρήσεων των εργαλείων τους, ιδίως όταν πρόκειται για αυτοτραυματισμό, βία ή απειλές κατά τρίτων.
Την ίδια ώρα, η OpenAI αντιμετωπίζει και ποινική έρευνα στη Φλόριντα σχετικά με τη χρήση του ChatGPT από άνδρα που κατηγορείται για μαζική επίθεση στο Πανεπιστήμιο Πολιτείας Φλόριντα, η οποία είχε ως αποτέλεσμα δύο νεκρούς και αρκετούς τραυματίες.
Η δικαστική εξέλιξη στον Καναδά αναμένεται να ανοίξει ευρύτερη συζήτηση γύρω από τα όρια ευθύνης των εταιρειών τεχνητής νοημοσύνης όταν τα συστήματά τους φέρονται να εντοπίζουν επικίνδυνα μοτίβα συμπεριφοράς, αλλά δεν ακολουθεί άμεση ενημέρωση των αρχών.