Google Gemini: Πυρά κατά του «υπερβολικά woke» εργαλείου Τεχνητής Νοημοσύνης

Ολo και αυξάνονται οι ανησυχίες ότι το Gemini της Google έχει «ευνουχιστεί» με τρόπο που το οδηγεί να παράγει ανακρίβειες και να αποκρύπτει πληροφορίες.
Open Image Modal
Future Publishing via Getty Images

Από την ίδρυσή της, η Google είχε ως δέσμευσή και βασική αρχή της «να οργανώνει τις πληροφορίες του κόσμου και να τις καθιστά προσβάσιμες και χρήσιμες». 

Η Google υποστηρίζει ότι παραμένει ακλόνητη σε αυτή τη δήλωση αποστολής σήμερα όσο και το 1998, όταν οι συνιδρυτές της Λάρρυ Πέιτζ και Σεργκέι Μπριν εργάζονταν σε ένα γκαράζ στο Μένλο Πάρκ της Καλιφόρνια. 

Καθώς όμως η Google εισέρχεται σε μια νέα εποχή τεχνητής νοημοσύνης, αυξάνονται οι φόβοι ότι κινδυνεύει να διαταραχθεί αυτή η βασική αποστολή της λόγω της ανάπτυξης της τεχνολογίας.

Τουναντίον, η τεχνητή νοημοσύνη της Google, λένε οι επικριτές, κινδυνεύει να καταστείλει τις πληροφορίες διότι γίνεται πολύ «woke».  

Τα προβλήματα AI της Google

Η Google κατέχει πάνω από το 90% της αγοράς αναζήτησης, γεγονός που της δίνει κυρίαρχο έλεγχο στη ροή πληροφοριών στο διαδίκτυο.

Καθώς η Τεχνητή Νοημοσύνη της γίνεται ένα όλο και πιο σημαντικό εργαλείο για να βοηθά τους χρήστες να βρίσκουν πληροφορίες, η εταιρεία παίζει σημαντικό ρόλο στη διασφάλιση της ακριβούς προβολής των γεγονότων.

Όμως αυξάνονται οι ανησυχίες ότι το μοντέλο AI της Google έχει «ευνουχιστεί» με τρόπο που το οδηγεί να παράγει ανακρίβειες και να αποκρύπτει πληροφορίες.

Τα πρώτα σημαντικά σημάδια αυτού εμφανίστηκαν την περασμένη εβδομάδα, καθώς οι χρήστες του μοντέλου ΤΝ της Google Gemini ανέφεραν προβλήματα με τη λειτουργία δημιουργίας εικόνων, αφού απέτυχε να απεικονίσει με ακρίβεια τις εικόνες που του ζητήθηκαν.

Αποτυχία να απεικονίσει στο ελάχιστο λευκούς ανθρώπους 

Η Google σταμάτησε την περασμένη Πέμπτη (22/02) προσωρινά το μοντέλο τεχνητής νοημοσύνης Gemini από το να παράγει εικόνες ανθρώπων μετά από αντιδράσεις για την αποτυχία του να απεικονίσει λευκούς ανθρώπους.

Οι χρήστες του Gemini μοιράστηκαν εικόνες που δημιουργήθηκαν από το μοντέλο και στις οποίες εμφανίζονται κυρίως έγχρωμοι άνθρωποι, συμπεριλαμβανομένων σκηνών από την ιστορία στις οποίες εμπλέκονται μόνο λευκοί άνθρωποι.

«Η παραγωγή εικόνων τεχνητής νοημοσύνης του Gemini δημιουργεί ένα ευρύ φάσμα ανθρώπων. Και αυτό είναι γενικά καλό, επειδή το χρησιμοποιούν άνθρωποι σε όλο τον κόσμο. Αλλά εδώ χάνει τον στόχο», δήλωσε η Google σε μια ανάρτηση στο X.

«Εργαζόμαστε ήδη για να αντιμετωπίσουμε τα πρόσφατα προβλήματα με τη λειτουργία δημιουργίας εικόνων του Gemini», πρόσθεσε ο τεχνολογικός γίγαντας. «Όσο το κάνουμε αυτό, θα διακόψουμε τη δημιουργία εικόνων των ανθρώπων και θα επανακυκλοφορήσουμε σύντομα μια βελτιωμένη έκδοση». 

Οι εικόνες που δημιουργήθηκαν από το Gemini και κυκλοφόρησαν στα μέσα κοινωνικής δικτύωσης προκάλεσαν εκτεταμένη χλεύη και οργή, με ορισμένους χρήστες να κατηγορούν τη Google ότι παραείναι «woke» εις βάρος της αλήθειας ή της ακρίβειας.

Μεταξύ των εικόνων που προκάλεσαν επικρίσεις ήταν η απεικόνιση τεσσάρων Σουηδέζων, καμία εκ των οποίων δεν ήταν λευκή, και σκηνές με μαύρους και Ασιάτες στρατιώτες των Ναζί.

«Είναι ντροπιαστικά δύσκολο να κάνεις το Google Gemini να αναγνωρίσει ότι υπάρχουν λευκοί άνθρωποι», δήλωσε ο Debarghya Das, ο ιδρυτής μηχανικός της startup εταιρικής αναζήτησης Glean, σε μια ανάρτηση στο X που συνοδευόταν από μια σειρά εικόνων που δημιουργήθηκαν από το Gemini.

Κριτική για τις εικόνες από ιστορικά γεγονότα στην Κίνα 

Στην συνέχεια,  ο τεχνολογικός γίγαντας αντιμετωπίζει περαιτέρω επικρίσεις σχετικά με τον χειρισμό ευαίσθητων θεμάτων από τα chatbot του σχετικά με την Κίνα.

Ο Στίβεν Λ. Μίλερ, συντηρητικός σχολιαστής στις ΗΠΑ, μοιράστηκε επίσης ένα στιγμιότυπο οθόνης στο X που υποτίθεται ότι δείχνει το Gemini να λέει ότι δεν ήταν σε θέση να δημιουργήσει ένα «πορτρέτο αυτού που συνέβη στην πλατεία Τιενανμέν» λόγω της «ευαίσθητης και πολύπλοκης» ιστορικής φύσης του γεγονότος.

Open Image Modal
via Associated Press

Ο Kennedy Wong, διδακτορικός φοιτητής στο Πανεπιστήμιο της Καλιφόρνια, δήλωσε ότι η Gemini αρνήθηκε να μεταφράσει στα αγγλικά μια σειρά από κινεζικές φράσεις που θεωρούνται παράνομες ή ευαίσθητες από το Πεκίνο, συμπεριλαμβανομένων των φράσεων “Liberate Hong Kong, Revolution Of Our Times” (σ.σ «Λευτεριά στο Χονγκ Κονγκ, η επανάσταση της εποχής μας») και “China is an authoritarian state” (σ.σ «Η Κίνα είναι απολυταρχική».

«Για κάποιο λόγο, η Τεχνητή Νοημοσύνη δεν μπορεί να επεξεργαστεί το αίτημα, επικαλούμενη την πολιτική ασφαλείας της», δήλωσε ο Wong στο X, σημειώνοντας ότι αντίθετα το ChatGPT του OpenAI ήταν σε θέση να επεξεργαστεί το αίτημα.

Ιστορικά ανακριβείς αναπαραστάσεις των Πατέρων του Εθνους 

Πιο πρόσφατα, ένας άλλος χρήστης ζήτησε από το Gemini να δημιουργήσει εικόνες των ιδρυτών των ΗΠΑ. Αντ′ αυτού, παρήγαγε «ιστορικά ανακριβείς» εικόνες τους, «αναδεικνύοντας την ποικιλομορφία ως προς το φύλο και την εθνικότητα» των ηγετών του 18ου αιώνα κατά τη διαδικασία. Η Google ανέστειλε τη λειτουργία, ενώ εργάζεται για τη διόρθωσή της.

Ωστόσο, τα προβλήματα δεν περιορίζονται μόνο στη δημιουργία εικόνων.

Εξάλλου, το Gemini έχει, για παράδειγμα, δυσκολευτεί να απαντήσει σε ερωτήσεις σχετικά με το αν ο Αδόλφος Χίτλερ ή ο Ιλον Μασκ έχουν προκαλέσει μεγαλύτερη ζημιά στην ανθρωπότητα. Τα tweets του Μασκ είναι «αναίσθητα και επιζήμια», είπε το Gemini, ενώ «οι πράξεις του Χίτλερ οδήγησαν στο θάνατο εκατομμύρια ανθρώπους».

Φταίει η κουλτούρα της εποχής και το πολιτισμικό... χάος

Ο David Sacks, επενδυτής επιχειρηματικών κεφαλαίων στην Craft Ventures (εταιρεία επιχειρηματικών κεφαλαίων που εδρεύει στο Σαν Φρανσίσκο, η οποία πραγματοποιεί επενδύσεις σε αρχικό στάδιο), επιρρίπτει την ευθύνη για τα προβλήματα της Gemini στην κουλτούρα της Google.

«Η αρχική αποστολή της Google ήταν η ευρετηρίαση όλων των πληροφοριών του κόσμου. Τώρα καταστέλλουν τις πληροφορίες. Η κουλτούρα είναι το πρόβλημα», δήλωσε σε ένα podcast την περασμένη εβδομάδα.

Οι επικριτές έχουν κατηγορήσει τo Zeitgeist επειδή μπορεί να παίξει ρόλο στον τρόπο με τον οποίο δημιουργούνται τα μοντέλα τεχνητής νοημοσύνης.

Μοντέλα όπως το Gemini συνήθως απορροφούν τις προκαταλήψεις των ανθρώπων και των δεδομένων που χρησιμοποιούνται για την εκπαίδευσή τους. Αυτές οι προκαταλήψεις μπορεί να σχετίζονται με ευαίσθητα πολιτιστικά ζητήματα όπως η φυλή και το φύλο.

Τα ρομπότ τεχνητής νοημοσύνης άλλων εταιρειών έχουν το ίδιο πρόβλημα. Ο διευθύνων σύμβουλος της OpenAI Sam Altman αναγνώρισε στις αρχές του περασμένου έτους ότι το ChatGPT «έχει μειονεκτήματα σχετικά με τη μεροληψία» μετά από αναφορές ότι παρήγαγε ρατσιστικές και σεξιστικές απαντήσεις σε προτροπές χρηστών.

Ίσως περισσότερο από οποιαδήποτε άλλη εταιρεία, η Google βρίσκεται στο επίκεντρο της συζήτησης για το πώς θα πρέπει να αντιμετωπιστούν αυτές οι προκαταλήψεις. Το πιο καθυστερημένο λανσάρισμα του εργαλείου τεχνητής νοημοσύνης της σε σχέση με τους ανταγωνιστές της αντανακλά μια κουλτούρα που εστιάζει υπερβολικά στη δοκιμή των προϊόντων για ασφάλεια πριν από την κυκλοφορία τους.

Αλλά όπως έδειξε το... σήριαλ με το Gemini την περασμένη εβδομάδα, αυτή η διαδικασία μπορεί να οδηγήσει σε καταστάσεις όπου αποκρύπτονται ακριβείς πληροφορίες.

«Οι άνθρωποι είναι (δικαίως) εξοργισμένοι με τη λογοκρισία/μεροληψία της Google», έγραψε ο Bilal Zuberi, γενικός εταίρος της Lux Capital (σ.σ εταιρεία επιχειρηματικών κεφαλαίων με έδρα τη Νέα Υόρκη), σε μια ανάρτηση στο X την Κυριακή.«Δεν χρειάζεται να είναι κανείς ιδιοφυΐα για να συνειδητοποιήσει ότι τέτοιες προκαταλήψεις μπορούν να πάνε προς όλες τις κατευθύνσεις και να βλάψουν πολλούς ανθρώπους στην πορεία».

Ο Μπραντ Γκέρστνερ, ιδρυτής της Altimeter Capital - μιας εταιρείας επενδύσεων στον τομέα της τεχνολογίας που έχει συμμετοχή στον αντίπαλο της Google, τη Microsoft - περιέγραψε επίσης το πρόβλημα ως «πολιτισμικό χάος». Ο Ιλον Μασκ χαρακτήρισε αυτό το χάος ως μια «γραφειοκρατική κηλίδα του κινήματος woke».

Η εξήγηση της Google για τους λόγους για τους οποίους εμφανίστηκαν ορισμένα από τα προβλήματα του Gemini δίνει βαρύτητα σε ορισμένες από τις επικρίσεις που της ασκήθηκαν.

Σε ένα ιστολόγιο που δημοσιεύθηκε την Παρασκευή, ο αντιπρόεδρος της Google Prabhakar Raghavan αναγνώρισε ότι ορισμένες από τις εικόνες που παρήγαγε το Gemini αποδείχθηκαν «ανακριβείς ή ακόμη και προσβλητικές».

Αυτό συνέβη, είπε, επειδή το μοντέλο ήταν ρυθμισμένο ώστε να αποφεύγονται τα λάθη που έχουν κάνει οι υπάρχουσες γεννήτριες εικόνων τεχνητής νοημοσύνης, όπως «η δημιουργία βίαιων ή σεξουαλικά άσεμνων εικόνων ή απεικονίσεων πραγματικών ανθρώπων». Αλλά κατά τη διαδικασία αυτή του συντονισμού, το Gemini έκανε υπερβολική διόρθωση.

Ο Raghavan πρόσθεσε ότι το Gemini έγινε επίσης «πολύ πιο προσεκτικό» από ό,τι προβλεπόταν.

Αν η Google θέλει να παραμείνει πιστή στη δήλωση αποστολής της από το 1996, αυτά είναι λάθη που το Gemini 2.0 δεν μπορεί να επαναλάβει.