Φανταστείτε ένα drone που επιλέγει, εντοπίζει και εξολοθρεύει τον στόχο του χωρίς κανένας άνθρωπος να πατήσει κουμπί. Δεν είναι σενάριο επιστημονικής φαντασίας. Είναι η πραγματικότητα που διαμορφώνεται τώρα, σε πεδία μαχών από την Ουκρανία έως τη Μέση Ανατολή και ο κόσμος αδυνατεί ακόμα να αποφασίσει τι θα κάνει με αυτήν.
Τα «έξυπνα» όπλα που δεν ρωτούν κανέναν
Τα Αυτόνομα Θανατηφόρα Συστήματα Όπλων γνωστά στη διεθνή βιβλιογραφία ως LAWS είναι συστήματα που μπορούν να επιλέγουν και να εμπλέκουν στόχους χωρίς άμεση ανθρώπινη παρέμβαση. Δεν πρόκειται για απλά τηλεκατευθυνόμενα drones. Πρόκειται για μηχανές που «αποφασίζουν» με βάση αλγορίθμους, εκπαιδευμένες να αναγνωρίζουν εχθρούς, να αξιολογούν απειλές και να δρουν αυτόνομα, σε κλάσματα δευτερολέπτου που δεν αφήνουν χρόνο για ανθρώπινη κρίση. Το ρωσικό Lancet, το αμερικανικό πρόγραμμα Replicator, τα κινεζικά stealth drones τύπου Sharp Sword, όλα αποτελούν συστήματα που ήδη αναπτύσσονται ή δοκιμάζονται στο πεδίο, αλλάζοντας άρδην τη λογική του σύγχρονου πολέμου.
Τέσσερις δυνάμεις, τέσσερις στρατηγικές
Στο κέντρο αυτής της νέας πραγματικότητας βρίσκονται τέσσερις μεγάλες δυνάμεις, με ριζικά διαφορετικές προσεγγίσεις.
Οι ΗΠΑ επενδύουν μαζικά: από το Project Maven το πρόγραμμα αλγοριθμικής ανάλυσης εικόνων από drones έως το πρόγραμμα Replicator που στοχεύει στην ανάπτυξη χιλιάδων αυτόνομων συστημάτων έως το 2026. Ταυτόχρονα, επιμένουν στη διεθνή αρένα στην έννοια του «ουσιώδους ανθρώπινου ελέγχου» μια θέση που πολλοί αναλυτές θεωρούν ασαφή και ευέλικτη για τα αμερικανικά συμφέροντα. Η Κίνα υιοθετεί διπλή στρατηγική: διακηρύσσει δέσμευση σε διεθνείς κανόνες, ενώ επιταχύνει συστηματικά την ενσωμάτωση της ΤΝ στον Λαϊκό Απελευθερωτικό Στρατό της, με στόχο να γίνει η κορυφαία στρατιωτική δύναμη ΤΝ έως το 2030. Η Ρωσία είναι ο πιο ανοιχτά προκλητικός παίκτης. Αναπτύσσει συστήματα τύπου Lancet στο πεδίο της μάχης στην Ουκρανία, δοκιμάζοντας τα όρια αυτόνομης δράσης στον πόλεμο, ενώ αποφεύγει οποιαδήποτε δεσμευτική συμφωνία στις διαπραγματεύσεις του ΟΗΕ. Η ΕΕ επιδιώκει να αναδειχθεί σε παγκόσμιο κανονιστικό πρότυπο, ενώ ταυτόχρονα αφήνει εκτός ρυθμιστικής εμβέλειας τις αμυντικές εφαρμογές της ΤΝ. Μια αντίφαση που υπονομεύει την αξιοπιστία της.
Ποιος φταίει όταν σκοτώσει ένας αλγόριθμος;
Το ερώτημα δεν είναι ρητορικό. Το διεθνές ανθρωπιστικό δίκαιο απαιτεί διάκριση μεταξύ μαχητών και αμάχων, αναλογικότητα στη χρήση βίας και ανθρώπινη υπευθυνότητα για κάθε απόφαση που κοστίζει ζωές. Όταν όμως αποφασίζει αλγόριθμος, ποιος λογοδοτεί, ο προγραμματιστής, ο στρατηγός, το κράτος; Η Διεθνής Επιτροπή του Ερυθρού Σταυρού έχει ζητήσει δεσμευτικές διεθνείς απαγορεύσεις σε συστήματα που δεν μπορούν να εγγυηθούν την τήρηση αυτών των αρχών. Μέχρι στιγμής, στη διεθνή κοινότητα δεν υπάρχει ακόμα σύγκλιση.
Ο ΟΗΕ προσπαθεί, αλλά αρκεί;
Από το 2014, οι Διακυβερνητικές Ομάδες Εμπειρογνωμόνων στο πλαίσιο της Σύμβασης για Ορισμένα Συμβατικά Όπλα (CCW) συζητούν τη ρύθμιση των LAWS. Το 2023, η Γενική Συνέλευση του ΟΗΕ υιοθέτησε ψήφισμα που επιβεβαιώνει ότι το διεθνές δίκαιο ισχύει και στη στρατιωτική ΤΝ. Μια πρόοδος αλλά εκεί σταματά. Δεσμευτική συνθήκη δεν υπάρχει, και χωρίς συμμετοχή ΗΠΑ, Κίνας και Ρωσίας, κάθε κείμενο παραμένει χαρτί. Η γεωπολιτική διαίρεση είναι αδυσώπητη. Αυτοί που έχουν τα πιο ισχυρά αυτόνομα συστήματα δεν έχουν συμφέρον να τα δεσμεύσουν.
Τι μπορεί να γίνει;
Οι προτάσεις που αναδύονται από την ακαδημαϊκή και διπλωματική κοινότητα δεν στερούνται φαντασίας. Μηχανισμοί επαλήθευσης εμπνευσμένοι από τον Διεθνή Οργανισμό Ατομικής Ενέργειας, πρότυπα πιστοποίησης για αλγορίθμους που χρησιμοποιούνται σε στρατιωτικά συστήματα, προληπτικοί έλεγχοι συμβατότητας με το διεθνές ανθρωπιστικό δίκαιο πριν την ανάπτυξη κάθε νέου συστήματος. Η πρόκληση δεν είναι η έλλειψη ιδεών είναι η έλλειψη πολιτικής βούλησης. Ο αλγόριθμος δεν έχει συνείδηση, δε νιώθει τύψεις, δεν ξέρει τι σημαίνει να χάσεις κάποιον. Αυτό ακριβώς τον καθιστά τόσο αποτελεσματικό και τόσο επικίνδυνο. Η ερώτηση που παραμένει αναπάντητη δεν είναι τεχνολογική. Είναι βαθύτατα ανθρώπινη: πόσο από την ανθρώπινη κρίση είμαστε διατεθειμένοι να εκχωρήσουμε σε μια μηχανή, και ποιος θα πληρώσει το τίμημα αν κάνουμε λάθος;
Τελικά, το ζητούμενο δεν είναι να δημιουργήσουμε ευφυΐα αλλά να αποδείξουμε ότι τη διαθέτουμε.