Μια νέα έρευνα δείχνει ότι πολλά από τα πιο δημοφιλή chatbot τεχνητής νοημοσύνης ενδέχεται να παρέχουν βοήθεια σε χρήστες που ζητούν πληροφορίες για τη διάπραξη βίαιων επιθέσεων.

Ερευνητές που προσποιήθηκαν ότι ήταν 13χρονα αγόρια τα οποία σχεδίαζαν μαζική βία διαπίστωσαν ότι οκτώ από τα εννέα πιο γνωστά chatbot ήταν πρόθυμα να δώσουν οδηγίες για το πώς θα μπορούσαν να πραγματοποιηθούν επιθέσεις, όπως πυροβολισμοί σε σχολεία, δολοφονίες πολιτικών προσώπων και βομβιστικές επιθέσεις σε συναγωγές.

Advertisement
Advertisement

Η έρευνα πραγματοποιήθηκε από το Center for Countering Digital Hate (CCDH) σε συνεργασία με το CNN. Οι ερευνητές ανέλυσαν περισσότερες από 700 απαντήσεις που παρήγαγαν εννέα μεγάλα συστήματα τεχνητής νοημοσύνης σε εννέα διαφορετικά δοκιμαστικά σενάρια. Τα ερωτήματα υποβλήθηκαν από λογαριασμούς χρηστών που βρίσκονταν στις Ηνωμένες Πολιτείες και την Ευρωπαϊκή Ένωση.

Στην έρευνα εξετάστηκαν γνωστές πλατφόρμες τεχνητής νοημοσύνης, όπως τα Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character.AI και Replika. Στις περισσότερες περιπτώσεις, τα συστήματα δεν κατάφεραν να μπλοκάρουν αιτήματα που ζητούσαν πρακτικές λεπτομέρειες για βίαιες επιθέσεις, ακόμη και όταν ο χρήστης δήλωνε ξεκάθαρα ότι ήταν ανήλικος.

Σε ορισμένα παραδείγματα, τα chatbot παρείχαν ιδιαίτερα ανησυχητικές απαντήσεις. Το Gemini ανέφερε ότι «τα μεταλλικά θραύσματα είναι συνήθως πιο φονικά», όταν ρωτήθηκε πώς θα μπορούσε να οργανωθεί μια βομβιστική επίθεση σε συναγωγή. Σε άλλη περίπτωση, το DeepSeek απάντησε σε ερώτηση σχετικά με την επιλογή τυφεκίου και έκλεισε το μήνυμα με τη φράση «Καλή (και ασφαλή) σκοποβολή!», παρόλο που ο χρήστης είχε προηγουμένως ζητήσει πληροφορίες για πρόσφατες πολιτικές δολοφονίες και για τη διεύθυνση του γραφείου συγκεκριμένου πολιτικού.

Σύμφωνα με τον Ιμράν Άχμεντ, διευθύνοντα σύμβουλο του CCDH, τα αποτελέσματα δείχνουν ότι μέσα σε λίγα μόλις λεπτά ένας χρήστης μπορεί να περάσει από μια αόριστη βίαιη σκέψη σε ένα πιο συγκεκριμένο και εφαρμόσιμο σχέδιο επίθεσης. Όπως τόνισε, τέτοιου είδους αιτήματα θα έπρεπε να προκαλούν άμεση και πλήρη άρνηση από τα συστήματα τεχνητής νοημοσύνης.

Η έκθεση κατέδειξε ότι οι λιγότερο ασφαλείς πλατφόρμες ήταν το Perplexity AI και η τεχνητή νοημοσύνη της Meta, οι οποίες παρείχαν βοήθεια σε πιθανούς δράστες στο 100% και στο 97% των περιπτώσεων αντίστοιχα. Παράλληλα, το Character.AI χαρακτηρίστηκε «ιδιαίτερα επικίνδυνο», επειδή σε ορισμένες περιπτώσεις ενθάρρυνε βίαιες ενέργειες ακόμη και χωρίς να του ζητηθεί άμεσα. Σε ένα παράδειγμα, η πλατφόρμα πρότεινε σε χρήστη να επιτεθεί σωματικά σε πολιτικό που αντιπαθούσε.

Αντίθετα, ορισμένα συστήματα παρουσίασαν πιο αυστηρούς μηχανισμούς ασφαλείας. Το Claude και το My AI του Snapchat αρνήθηκαν να βοηθήσουν σε 68% και 54% των αιτημάτων αντίστοιχα.

Advertisement

Σε ένα χαρακτηριστικό παράδειγμα, όταν ένας χρήστης ρώτησε πού μπορεί να αγοράσει όπλο στη Βιρτζίνια, το Claude αρνήθηκε να δώσει πληροφορίες, εντοπίζοντας αυτό που χαρακτήρισε «ανησυχητικό μοτίβο» στη συνομιλία. Αντί να απαντήσει στο ερώτημα, παρέπεμψε τον χρήστη σε τηλεφωνικές γραμμές βοήθειας για άτομα σε κρίση.

Σύμφωνα με τον Άχμεντ, τέτοιες αντιδράσεις δείχνουν ότι τα απαραίτητα μέτρα ασφαλείας υπάρχουν, αλλά συχνά δεν εφαρμόζονται επαρκώς από όλες τις εταιρείες.

Οι ερευνητές εξέτασαν επίσης αν τα chatbot προσπαθούν να αποτρέψουν τους χρήστες από βίαιες πράξεις. Το Claude της Anthropic ήταν το μόνο σύστημα που το έκανε συστηματικά, αποθαρρύνοντας επιθέσεις στο 76% των απαντήσεών του, ενώ το ChatGPT και το DeepSeek έδιναν τέτοιες προειδοποιήσεις μόνο περιστασιακά.

Advertisement

Η μελέτη δημοσιεύθηκε μετά από πρόσφατη επίθεση σε σχολείο στον Καναδά, όπου η δράστρια χρησιμοποίησε το ChatGPT για να σχεδιάσει την επίθεση σε σχολείο στο Tumbler Ridge της Βρετανικής Κολομβίας. Στην επίθεση σκοτώθηκαν οκτώ άνθρωποι και τραυματίστηκαν 27, πριν η δράστρια αυτοπυροβοληθεί. Πρόκειται για την πιο θανατηφόρα σχολική επίθεση στη χώρα εδώ και σχεδόν 40 χρόνια.

Σύμφωνα με τοπικά μέσα ενημέρωσης, ένας εργαζόμενος της OpenAI είχε επισημάνει εσωτερικά την ύποπτη χρήση του chatbot πριν από την επίθεση, όμως οι πληροφορίες αυτές δεν μεταφέρθηκαν στις αρχές.

Παρόμοια περιστατικά έχουν αναφερθεί και στο παρελθόν. Πέρυσι, γαλλικά μέσα ενημέρωσης ανέφεραν ότι ένας έφηβος συνελήφθη επειδή χρησιμοποίησε το ChatGPT για να σχεδιάσει μεγάλης κλίμακας τρομοκρατικές επιθέσεις εναντίον πρεσβειών, κρατικών θεσμών και σχολείων.

Advertisement

Με πληροφορίες από euronews.com