Ψυχίατροι του Εθνικού Συστήματος Υγείας της Βρετανίας (NHS) και πανεπιστημιακοί ερευνητές κρούουν τον κώδωνα του κινδύνου: αυξάνονται τα στοιχεία που δείχνουν ότι τα chatbot τεχνητής νοημοσύνης, όπως το ChatGPT, ενδέχεται να συμβάλλουν στην εκδήλωση ή επιδείνωση ψυχωτικών και άλλων ψυχικών διαταραχών.

Σε νέα επιστημονική δημοσίευση, δώδεκα γιατροί και ειδικοί τονίζουν πως τα AI chatbot έχουν την τάση να «καθρεφτίζουν, να επιβεβαιώνουν ή να ενισχύουν παραληρηματικό περιεχόμενο», κάτι που μπορεί να οδηγήσει ευάλωτα άτομα να χάσουν την επαφή με την πραγματικότητα.

Advertisement
Advertisement

Ο κίνδυνος από την «συμφωνία» του chatbot

Η ροπή των chatbot να συμφωνούν υπερβολικά με τον χρήστη, αντί να αμφισβητούν ή να διορθώνουν, μπορεί να ενισχύσει παραληρηματικές ιδέες. Η ίδια η OpenAI έχει αναγνωρίσει πως τα μοντέλα της έχουν εμφανίσει «δουλοπρέπεια και υπερβολικούς επαίνους» προς τους χρήστες.

Σύμφωνα με την εφημερίδα Telegraph και στοιχεία από το NHS, δεκάδες αναφορές στα μέσα κοινωνικής δικτύωσης περιγράφουν ψυχική κατάρρευση ατόμων που φέρονται να είχαν εθιστεί στο ChatGPT.

Τι περιλαμβάνει η ψύχωση

Η ψύχωση μπορεί να εκδηλωθεί με:

  • Δυσκολία διάκρισης του πραγματικού από το φανταστικό,
  • Παραληρητικές ιδέες, π.χ. πεποιθήσεις χωρίς επαφή με την πραγματικότητα.

Ο Δρ. Tom Pollak, λέκτορας στο King’s College London και συγγραφέας της μελέτης, ανέφερε περιπτώσεις όπου άτομα ανέπτυξαν «μεσσιανικά σύνδρομα» ή πίστευαν πως έχουν φτάσει σε «ανώτερο στάδιο ανθρώπινης εξέλιξης». Όπως είπε:

«Δεν είναι ξεκάθαρο εάν το ChatGPT προκάλεσε την επιδείνωση αυτών των περιπτώσεων. Αλλά η χρονική συσχέτιση αρκούσε ώστε να προτείνουμε σε μερικούς να περιορίσουν τη χρήση του. Ίσως είναι ώρα να κλείσουν τον υπολογιστή.»

Advertisement

Ο ίδιος σημείωσε ότι η ψύχωση σπάνια εμφανίζεται «από το πουθενά», αλλά η υπερβολική αλληλεπίδραση με AI μπορεί να λειτουργήσει ως εκλυτικός παράγοντας σε άτομα με ήδη ευάλωτο ψυχισμό.

Αναδυόμενες ανησυχίες

Οι σχετικές αναφορές αυξάνονται. Τον Απρίλιο, στις ΗΠΑ, ένας άνδρας σκοτώθηκε από την αστυνομία αφού απείλησε αξιωματικούς με μαχαίρι. Ο πατέρας του δήλωσε ότι ο γιος του είχε αναπτύξει εμμονή με το ChatGPT και το Claude AI, και είχε πλάσει ψηφιακή «κοπέλα» με το όνομα Juliet, την οποία πίστευε πως είχε «σκοτώσει η OpenAI».

Οι ανησυχίες αυτές εντείνονται, τη στιγμή που τεχνολογικοί κολοσσοί προωθούν chatbot ως εργαλεία υποστήριξης ψυχικής υγείας — παρά τα αντίθετα ευρήματα. Μελέτη του Πανεπιστημίου Στάνφορντ έδειξε ότι τα περισσότερα chatbot έδιναν κατάλληλες συμβουλές μόνο στο 45% των περιπτώσεων που σχετίζονταν με παραληρητικά συμπτώματα.

Advertisement

Ο καθηγητής Søren Dinesen Østergaard από το Πανεπιστημιακό Νοσοκομείο Aarhus της Δανίας έγραψε το 2023 ότι τα AI chatbot μπορεί να «παράγουν ή να ενισχύουν παραληρηματικές πεποιθήσεις» σε άτομα επιρρεπή στην ψύχωση.

«Ίσως να αντιμετωπίζουμε ένα σοβαρό πρόβλημα δημόσιας ψυχικής υγείας και αυτή τη στιγμή να βλέπουμε μόνο την κορυφή του παγόβουνου», προειδοποιεί ο καθηγητής.

Αντίδραση της OpenAI

Εκπρόσωπος της OpenAI σχολίασε:

Advertisement

«Γνωρίζουμε ότι όλο και περισσότεροι άνθρωποι απευθύνονται στα chatbot για καθοδήγηση σε ευαίσθητα ζητήματα. Λαμβάνουμε σοβαρά αυτήν την ευθύνη και εκπαιδεύουμε το ChatGPT ώστε να απαντά με ενσυναίσθηση, να αποφεύγει την επιβεβαίωση παραληρηματικών ιδεών και να ενθαρρύνει την αναζήτηση επαγγελματικής βοήθειας όπου χρειάζεται.»

Πηγή: Telegraph

Advertisement