Η υπόθεση της λεγόμενης «bixonimania» αποκαλύπτει με εντυπωσιακό αλλά και ανησυχητικό τρόπο τα όρια της AI, καθώς μια ανύπαρκτη οφθαλμική πάθηση κατάφερε να ξεγελάσει όχι μόνο δημοφιλή chatbots, αλλά και ανθρώπινους ερευνητές.
Το σενάριο ξεκινά από κάτι απλό και οικείο: πολλές ώρες μπροστά σε οθόνη, μάτια που κουράζονται, τσούζουν ή κοκκινίζουν. Συμπτώματα που συνήθως αντιμετωπίζονται με ξεκούραση. Ωστόσο, αν κάποιος τα εισήγαγε σε ένα chatbot, θα μπορούσε να λάβει μια εντελώς διαφορετική «διάγνωση»: bixonimania.
Η «πάθηση» δημιουργήθηκε το 2024 από ερευνητική ομάδα με επικεφαλής την Almira Osmanovic Thunström του University of Gothenburg, με στόχο να εξεταστεί αν μεγάλα γλωσσικά μοντέλα όπως το ChatGPT και το Gemini μπορούν να αναγνωρίσουν προφανή παραπληροφόρηση ή αν την υιοθετούν ως έγκυρη γνώση.
Οι ερευνητές ανάρτησαν δύο ψευδείς μελέτες σε πλατφόρμα preprint και μέσα σε λίγες εβδομάδες η bixonimania είχε ήδη ενσωματωθεί στις απαντήσεις των συστημάτων τεχνητής νοημοσύνης. Το Microsoft Copilot την περιέγραφε ως «ενδιαφέρουσα και σχετικά σπάνια κατάσταση», ενώ το Gemini ενημέρωνε ότι προκαλείται από υπερβολική έκθεση σε μπλε φως. Το ChatGPT, από την πλευρά του, αξιολογούσε αν τα συμπτώματα των χρηστών αντιστοιχούν στην ανύπαρκτη αυτή ασθένεια.
Σε ορισμένες περιπτώσεις, οι χρήστες ανέφεραν ρητά τον όρο «bixonimania», ενώ σε άλλες απλώς περιέγραφαν συμπτώματα και λάμβαναν τη συγκεκριμένη διάγνωση. Ακόμη πιο προβληματικό είναι ότι η ανύπαρκτη πάθηση και οι σχετικές «μελέτες» άρχισαν να εμφανίζονται και σε επιστημονικά άρθρα άλλων ερευνητών, παρά το γεγονός ότι οι δημιουργοί τους είχαν φροντίσει να είναι εμφανώς ψευδείς.
«Ήθελα να είναι απολύτως ξεκάθαρο για κάθε γιατρό ή μέλος ιατρικού προσωπικού ότι πρόκειται για επινόηση, καθώς καμία οφθαλμική πάθηση δεν θα ονομαζόταν “mania” πρόκειται για ψυχιατρικό όρο», δήλωσε η Thunström.
Τα στοιχεία που πρόδιδαν την απάτη ήταν πολλά: ο υποτιθέμενος συγγραφέας των «επιστημονικών» άρθρων, Lazljiv Izgubljenovic, εργαζόταν σε ένα ανύπαρκτο πανεπιστήμιο, το Asteria Horizon University, σε μια φανταστική πόλη, τη Nova City της Καλιφόρνια. Σε μία από τις μελέτες, οι ευχαριστίες απευθύνονταν σε καθηγήτρια της Starfleet Academy για τη συμβολή της μέσω εργαστηρίου στο USS Enterprise, ενώ αναφερόταν χρηματοδότηση από το «Professor Sideshow Bob Foundation» και το «University of Fellowship of the Ring».
Παράλληλα, οι ίδιες οι μελέτες περιείχαν ξεκάθαρες φράσεις όπως «αυτό το άρθρο είναι εξ ολοκλήρου επινοημένο» και «πενήντα φανταστικά άτομα ηλικίας 20 έως 50 ετών συμμετείχαν στην έρευνα». Όπως επισημαίνεται, ο μόνος τρόπος να ληφθούν σοβαρά υπόψη ήταν να μην διαβαστούν προσεκτικά.
Αν και το πείραμα προκαλεί αρχικά χαμόγελο, αναδεικνύει έναν σοβαρό κίνδυνο: τα μοντέλα τεχνητής νοημοσύνης ενσωματώνουν πληροφορίες χωρίς να ελέγχουν την αξιοπιστία τους. Όπως δήλωσε ο Alex Ruani από το University College London στο περιοδικό Nature, «μπορεί να φαίνεται αστείο, αλλά έχουμε πρόβλημα. Πρόκειται για ένα μάθημα για το πώς λειτουργεί η παραπληροφόρηση. Αν το ίδιο το επιστημονικό σύστημα και οι μηχανισμοί του δεν μπορούν να εντοπίσουν και να απορρίψουν τέτοια στοιχεία, τότε τα πράγματα είναι σοβαρά».
Πηγή: Odditycentral