Στα τέλη Ιανουαρίου 2026, το Claude βρισκόταν στη θέση 131 των δωρεάν εφαρμογών στις ΗΠΑ. Μέσα σε έναν μήνα, η εταιρεία κατέγραψε αύξηση ελεύθερων χρηστών πάνω από 60%, ενώ οι συνδρομητές πληρωμένης πρόσβασης υπερδιπλασιάστηκαν. Στις 28 Φεβρουαρίου, η εφαρμογή κατέγραψε 503.424 νέες λήψεις (downloads).
Ήταν η μεγαλύτερη μέρα στην ιστορία της!
Το ChatGPT υποχώρησε στη 2η θέση, ενώ το Gemini της Google έπεσε στην 4η.
Ο καταλύτης αυτής της ανατροπής δεν ήταν μια νέα λειτουργία ή μια επιθετική διαφημιστική καμπάνια…
Το «όχι» της Anthropic στο Πεντάγωνο
Η Anthropic αρνήθηκε να αποδεχθεί τους όρους του Υπουργείου Άμυνας των ΗΠΑ, που ζητούσαν «απεριόριστη χρήση» του Claude για κάθε «νόμιμο σκοπό». Η εταιρεία ζήτησε εγγυήσεις ότι το μοντέλο της δεν θα χρησιμοποιηθεί για μαζική εγχώρια παρακολούθηση πολιτών, ούτε για πλήρως αυτόνομα θανατηφόρα οπλικά συστήματα χωρίς ανθρώπινη επίβλεψη. «Δεν μπορούμε εν πλήρη συνειδήσει να αποδεχτούμε αυτό το αίτημα», έγραψε ο CEO, Ντάριο Αμοντέι.
Η απάντηση της κυβέρνησης Τραμπ ήταν άμεση και σφοδρή.
Ο πρόεδρος χαρακτήρισε την Anthropic «ριζοσπαστική αριστερή εταιρεία» στο Truth Social και διέταξε όλες τις ομοσπονδιακές υπηρεσίες να σταματήσουν αμέσως κάθε χρήση των προϊόντων της.
Ο Υπουργός Άμυνας Πιτ Χέγκσεθ ανακοίνωσε τον χαρακτηρισμό της Anthropic ως «κινδύνου για την αλυσίδα εφοδιασμού που σχετίζεται με την Εθνική Ασφάλεια». Είναι χαρακτηρισμός που παραδοσιακά αποδίδεται σε ξένες απειλές, όχι αμερικανικές εταιρείες. Ο Ντόναλντ Τραμπ έγραψε χαρακτηριστικά: «Η Αμερική δεν θα επιτρέψει ποτέ σε μια woke εταιρεία να υπαγορεύει πώς ο στρατός μας θα πολεμά και θα νικά».
Τραγική ειρωνεία: Το Claude στα χτυπήματα κατά του Ιράν
Η υπόθεση έλαβε μία απρόσμενη τροπή ώρες αργότερα. Σύμφωνα με αναφορές των Wall Street Journal και Axios, την ίδια νύχτα που ο Trump υπέγραψε την εκτελεστική εντολή αποκλεισμού της Anthropic, η Αμερικανική Κεντρική Διοίκηση (CENTCOM) χρησιμοποίησε το Claude για να εκτελέσει μαζικές αεροπορικές επιθέσεις στο Ιράν, ως μέρος της κοινής επιχείρησης ΗΠΑ–Ισραήλ, που οδήγησε μεταξύ άλλων στον θάνατο του ανώτατου ηγέτη Αλί Χαμενεΐ. Το μοντέλο χρησιμοποιήθηκε για αξιολόγηση πληροφοριών, αναγνώριση στόχων και προσομοίωση σεναρίων μάχης. Το Claude είχε ήδη χρησιμοποιηθεί σε προηγούμενες επιχειρήσεις, συμπεριλαμβανομένης της σύλληψης του πρώην προέδρου της Βενεζουέλας Νικολάς Μαδούρο.
Σύμφωνα με το Axios, «το Πεντάγωνο εξακολουθεί να θεωρεί το Claude ανώτερο από τα άλλα μοντέλα».
Οι χρήστες επιλέγουν «ηθικό AI»
Ενώ η πολιτική αντιπαράθεση εξελισσόταν στην Ουάσινγκτον, εκατομμύρια απλοί χρήστες έλαβαν μια εντελώς διαφορετική απόφαση. Το hashtag «Cancel ChatGPT» έγινε trend, καθώς πολλοί εξέφραζαν δυσαρέσκεια για την απόφαση της OpenAI να υπογράψει συμφωνία με το Πεντάγωνο — ακόμη και αν η εταιρεία ισχυρίστηκε ότι η σύμβαση περιλαμβάνει παρόμοιες εγγυήσεις με αυτές που ζητούσε η Anthropic.
Η άνοδος του Claude στην κορυφή αντικατοπτρίζει μια αναδυόμενη τάση: οι χρήστες δεν επιλέγουν πλέον εργαλεία AI μόνο με βάση τις δυνατότητές τους, αλλά και με βάση τις αξίες που αντιπροσωπεύουν. Η Anthropic έχει εδώ και καιρό τοποθετήσει το Claude ως «Constitutional AI». Δηλαδή, ένα σύστημα χτισμένο γύρω από ρητές ηθικές αρχές. Αυτή η φιλοσοφία, που μέχρι πρότινος ήταν κυρίως ακαδημαϊκή «λεπτομέρεια», μετατράπηκε ξαφνικά σε ισχυρό ατού στο πεδίο του μάρκετινγκ.
Η ιστορία, ωστόσο, δεν είναι μονοδιάστατη. Κριτικοί επισημαίνουν ότι η Anthropic είχε ήδη συνάψει σύμβαση αξίας 200 εκατ. δολαρίων με το Υπουργείο Άμυνας, και ότι η χρήση του Claude για αναγνώριση στόχων σε ξένα εδάφη δεν φαίνεται να έρχεται σε αντίθεση με τις «κόκκινες γραμμές» της εταιρείας.
Η ουσία παραμένει: η εποχή που η τεχνητή νοημοσύνη ήταν ουδέτερο εργαλείο έχει τελειώσει. Οι εταιρείες AI γίνονται πολιτικοί παίκτες, και οι χρήστες τις κρίνουν ανάλογα. Το ερώτημα τώρα πια δεν είναι, λοιπόν, «ποιο AI είναι πιο έξυπνο», αλλά «ποιο AI εμπιστεύομαι».
Πηγές: Wall Street Journal, Axios, TechCrunch, CNBC, Times of Israel, Sensor Tower (και με χρήση AI)