Άνθρωποι τίθενται σε κίνδυνο βλάβης εξαιτίας ψευδών και παραπλανητικών πληροφοριών υγείας που εμφανίζονται στις περιλήψεις τεχνητής νοημοσύνης της Google, σύμφωνα με έρευνα του Guardian.

Η εταιρεία έχει υποστηρίξει πολλαπλώς ότι τα λεγόμενα AI Overviews, τα οποία χρησιμοποιούν γενετική τεχνητή νοημοσύνη προκειμένου να προσφέρουν συνοπτικές απαντήσεις και βασικές πληροφορίες γύρω από ένα θέμα ή ένα ερώτημα, είναι «χρήσιμα» και «αξιόπιστα».

Advertisement
Advertisement

Ωστόσο, ορισμένες από αυτές τις περιλήψεις -οι οποίες εμφανίζονται στην κορυφή των αποτελεσμάτων αναζήτησης-, περιείχαν ανακριβείς πληροφορίες υγείας και ενδέχεται να θέτουν τους χρήστες σε σοβαρό κίνδυνο.

Οι διάφορες περιπτώσεις

Σε μία περίπτωση που ειδικοί χαρακτήρισαν «πραγματικά επικίνδυνη», η Google συμβούλευε λανθασμένα ασθενείς με καρκίνο στο πάγκρεας να αποφεύγουν τροφές με υψηλή περιεκτικότητα σε λιπαρά. Οι ειδικοί τόνισαν ότι αυτή η οδηγία είναι ακριβώς το αντίθετο από ό,τι συνιστάται στην πράξη και ότι μπορεί να αυξήσει τον κίνδυνο θανάτου των ασθενών που πάσχουν με τη νόσο.

Σε ένα ακόμη «ανησυχητικό» παράδειγμα, η εταιρεία παρείχε ψευδείς πληροφορίες σχετικά με κρίσιμες εξετάσεις ηπατικής λειτουργίας, γεγονός που θα μπορούσε να οδηγήσει άτομα με σοβαρή ηπατική νόσο στο να πιστέψουν εσφαλμένα ότι είναι υγιή.

Εκπρόσωπος της Google δήλωσε ότι πολλά από τα παραδείγματα που κοινοποιήθηκαν στην εταιρεία ήταν «ατελή στιγμιότυπα οθόνης» (screenshots), προσθέτοντας ότι, από όσα μπορούσαν να αξιολογήσουν, οι περιλήψεις παρέπεμπαν «σε γνωστές και αξιόπιστες πηγές» και συνιστούσαν την αναζήτηση συμβουλής από ειδικούς.

Η έρευνα του Guardian έρχεται σε μια περίοδο αυξανόμενης ανησυχίας ότι τα δεδομένα που παράγονται από συστήματα τεχνητής νοημοσύνης μπορεί να παραπλανήσουν τους καταναλωτές, οι οποίοι συχνά υποθέτουν ότι είναι αξιόπιστα. Για την ακρίβεια, εντοπίστηκαν αρκετές περιπτώσεις ανακριβών πληροφοριών υγείας στα AI Overviews της Google, έπειτα από ανησυχίες που εξέφρασαν οργανώσεις υγείας, φιλανθρωπικά ιδρύματα και επαγγελματίες του χώρου.

Advertisement

Η Άννα Τζιούελ, διευθύντρια υποστήριξης, έρευνας και επιρροής του οργανισμού Pancreatic Cancer UK, δήλωσε ότι η σύσταση προς ασθενείς να αποφεύγουν τα λιπαρά τρόφιμα είναι «εντελώς λανθασμένη». Όπως είπε, κάτι τέτοιο «θα μπορούσε να αποδειχθεί πραγματικά επικίνδυνο και να θέσει σε κίνδυνο τις πιθανότητες ενός ατόμου να είναι αρκετά καλά ώστε να λάβει θεραπεία».

Παράλληλα, αναζητήσεις όπως «ποιο είναι το φυσιολογικό εύρος για τις εξετάσεις αίματος του ήπατος» παρήγαγαν επίσης παραπλανητικές απαντήσεις, γεμάτες αριθμούς, με ελάχιστο πλαίσιο και χωρίς να λαμβάνονται υπόψη παράγοντες όπως η εθνικότητα, το φύλο, η εθνοτική καταγωγή ή η ηλικία των ασθενών.

«Μας ανησύχησε επίσης το γεγονός ότι η σύνοψη της AI άλλαζε όταν κάναμε ακριβώς την ίδια αναζήτηση, εμφανίζοντας κάθε φορά διαφορετική απάντηση αντλημένη από διαφορετικές πηγές. Αυτό σημαίνει ότι οι άνθρωποι λαμβάνουν διαφορετική πληροφόρηση ανάλογα με το πότε κάνουν την αναζήτηση και αυτό δεν είναι αποδεκτό», σημείωσαν οι ειδικοί.

Advertisement

Από την άλλη, μερικά από τα ευρήματα της έρευνας, κατέδειξαν ότι τα AI Overviews της Google παρείχαν παραπλανητικά αποτελέσματα και σε αναζητήσεις οι οποίες αφορούσαν ψυχικές διαταραχές.

Η Google, από την πλευρά της, ανέφερε ότι η συντριπτική πλειονότητα των AI Overviews είναι ακριβής και χρήσιμη και ότι η εταιρεία προχωρά συνεχώς σε βελτιώσεις ποιότητας. Πρόσθεσε ότι το ποσοστό ακρίβειας των AI Overviews είναι αντίστοιχο με εκείνο άλλων λειτουργιών αναζήτησης, όπως τα featured snippets, τα οποία χρησιμοποιούνται εδώ και πάνω από μία δεκαετία.

Η εταιρεία δήλωσε επίσης ότι, όταν τα AI Overviews παρερμηνεύουν διαδικτυακό περιεχόμενο ή παραλείπουν κρίσιμο πλαίσιο, λαμβάνονται τα κατάλληλα μέτρα σύμφωνα με τις πολιτικές της.

Advertisement

Με πληροφορίες από The Guardian