Η απειλή της Α.Ι: Πρώην εργαζόμενη της Google φοβάται έναρξη πολέμου από όπλα τεχνητής νοημοσύνης

H Λόρα Νόλαν είχε παραιτηθεί επειδή την είχαν στείλει να δουλέψει σε πρόγραμμα στρατιωτικής τεχνολογίας.
Open Image Modal
U.S. Navy photo by Mass Communication Specialist 1st Class Nathan Laird

Τα αυτόνομα όπλα (ή αλλιώς «φονικά ρομπότ»- killer robots) που αναπτύσσονται θα μπορούσαν να προκαλέσουν έναρξη πολέμου κατά λάθος ή να προβούν σε κτηνωδίες, προειδοποίησε πρώην κορυφαία μηχανικός λογισμικού της Google.

Όπως αναφέρεται σε δημοσίευμα του Guardian, η Λόρα Νόλαν, που έχει παραιτηθεί πέρυσι από τη Google, διαμαρτυρόμενη επειδή την έστειλαν να δουλέψει σε ένα πρόγραμμα για τη βελτίωση της αμερικανικής τεχνολογίας στρατιωτικών drone, ζητά να απαγορευτούν πλήρως τα όπλα τεχνητής νοημοσύνης που δεν ελέγχονται από ανθρώπους.

Η Νόλαν είπε πως τα φονικά ρομπότ που δεν ελέγχονται μέσω τηλεχειρισμού από ανθρώπους θα έπρεπε να καταστούν παράνομα με διεθνή συνθήκη όπως αυτή που απαγορεύει τα χημικά όπλα.

Αντίθετα με τα drones, που ελέγχονται εξ αποστάσεως από χειριστές σε μεγάλες αποστάσεις (συχνά χιλιάδες χιλιόμετρα μακριά) η Νόλαν είπε πως τα φονικά ρομπότ έχουν τη δυνατότητα για «καταστρεπτικά πράγματα, για τα οποία δεν είχαν προγραμματιστεί αρχικά».

 

 

Δεν υπάρχει κάτι που να δείχνει ότι η Google εμπλέκεται στην ανάπτυξη αυτόνομων οπλικών συστημάτων. Τον προηγούμενο μήνα επιτροπή του ΟΗΕ συζήτησε το θέμα των αυτόνομων όπλων και διαπίστωσε ότι η Google αποστρέφεται και απορρίπτει τη χρήση ΑΙ σε οπλικά συστήματα.

Η Νόλαν, που συμμετέχει στην καμπάνια κατά των φονικών ρομπότ (Campaign to Stop Killer Robots) και έχει ενημερώσει διπλωμάτες του ΟΗΕ στη Νέα Υόρκη και τη Γενεύη για το θέμα, είπε πως «το ενδεχόμενο μιας καταστροφής είναι ανάλογο με το πόσες τέτοιες μηχανές θα βρίσκονται ταυτόχρονα σε μια περιοχή. Αυτό που έχετε μπροστά σας είναι πιθανές κτηνωδίες και παράνομους φόνους, ειδικά εάν βρίσκονται εκεί εκατοντάδες χιλιάδες από αυτές τις μηχανές. Θα μπορούσαν να υπάρξουν μεγάλης κλίμακας ατυχήματα επειδή αυτά τα πράγματα θα αρχίσουν να συμπεριφέρονται με απρόσμενους τρόπους. Για αυτόν τον λόγο, οποιαδήποτε προηγμένα συστήματα θα έπρεπε να υπόκεινται σε ουσιώδη ανθρώπινο έλεγχο, αλλιώς πρέπει να απαγορευτούν επειδή είναι πολύ απρόβλεπτα και επικίνδυνα».

 

Open Image Modal
ASSOCIATED PRESS

 

Η Google πήρε τη Νόλαν για να εργαστεί στο Project Maven το 2017, αφού είχε δουλέψει για τον κολοσσό ήδη για τέσσερα χρόνια, εξελισσόμενη σε μια εκ των κορυφαίων μηχανικών λογισμικού της εταιρείας στην Ιρλανδία. Όπως είπε, με το πέρασμα του χρόνου ανησυχούσε όλο και περισσότερο για τον ρόλο της στο πρόγραμμα, που είχε σκοπό να βοηθήσει το Πεντάγωνο στον κλάδο της τεχνολογίας video recognition για drones: Συγκεκριμένα, αυτό που ζητήθηκε από την ίδια και άλλους ήταν να αναπτύξουν ένα σύστημα όπου τεχνητή νοημοσύνη θα εντόπιζε ανθρώπους και αντικείμενα σε βίντεο με μεγάλη ταχύτητα. Σημειώνεται ότι η Google εγκατέλειψε το σχετικό συμβόλαιο τον Μάρτιο, αφού πάνω από 3.000 εργαζόμενοί της υπέγραψαν κείμενο κατά της εμπλοκής της εταιρείας στο συγκεκριμένο αντικείμενο.

Αν και παραιτήθηκε εξαιτίας του προγράμματος, η Νόλαν προβλέπει πως τα αυτόνομα όπλα που αναπτύσσονται αποτελούν πολύ μεγαλύτερη απειλή για την ανθρωπότητα από ό,τι τα τηλεχειριζόμενα drones. Η ίδια έχει περιγράψει διάφορα ενδεχόμενα που θα μπορούσαν να οδηγήσουν σε καταστροφικά αποτελέσματα.

«Θα μπορούσαμε να έχουμε ένα σενάριο όπου αυτόνομα όπλα τα οποία έχουν αποσταλεί για να κάνουν μια δουλειά έρχονται αντιμέτωπα με απρόσμενα σήματα ραντάρ σε μια περιοχή όπου κάνουν έρευνες, θα μπορούσε εκεί να υπάρχουν καιρικά φαινόμενα που δεν έχουν ληφθεί υπόψιν στον προγραμματισμό, ή να πέσουν πάνω σε μια ομάδα ανθρώπων που φέρουν όπλα και θεωρηθεί ότι είναι αντάρτες, ενώ στην πραγματικότητα κυνηγούν. Η μηχανή δεν έχει τη δυνατότητα διάκρισης ή κοινής λογικής που έχει ο άνθρωπος. Το άλλο επίφοβο για αυτά τα αυτόνομα οπλικά συστήματα είναι πως μπορείς να τα δοκιμάσεις στην πραγματικότητα μόνο στέλνοντάς τα σε μια πραγματική εμπόλεμη ζώνη. Ίσως αυτό να συμβαίνει με τους Ρώσους αυτή τη στιγμή στη Συρία, ποιος ξέρει; Αυτό που ξέρουμε είναι πως στα Ηνωμένα Έθνη η Ρωσία έχει αντιταχθεί σε οποιαδήποτε συνθήκη, πόσο μάλλον απαγόρευση σε αυτά τα όπλα...αν δοκιμάζεις μια μηχανή που λαμβάνει τις δικές της αποφάσεις σχετικά με τον κόσμο γύρω μας, πρέπει να γίνεται σε πραγματικό χρόνο. Άλλωστε πώς εκπαιδεύεις ένα σύστημα που λειτουργεί αποκλειστικά με λογισμικό να διακρίνει ανθρώπινες συμπεριφορές, ή διαφορές μεταξύ κυνηγών και ανταρτών; Πώς διακρίνει μια φονική μηχανή που πετάει μόνη της εκεί έξω έναν 18χρονο μαχητή από έναν 18χρονο που κυνηγάει λαγούς;».

 

 

Η δυνατότητα μετατροπής στρατιωτικών drones σε αυτόνομα όπλα, σύμφωνα με τη Νόλαν, «είναι απλά ένα πρόβλημα λογισμικού αυτές τις ημέρες, και ένα που μπορεί να λυθεί σχετικά εύκολα».

«Αυτά τα αυτόνομα όπλα αποτελούν μια ηθική και τεχνολογική αλλαγή βήματος στον πόλεμο. Πολύ λίγοι άνθρωποι μιλούν για αυτό, αλλά αν δεν είμαστε προσεκτικοί, ένα από αυτά τα όπλα, αυτά τα φονικά ρομπότ, θα μπορούσαν να αρχίσουν κατά λάθος έναν πόλεμο, να καταστρέψουν έναν πυρηνικό σταθμό και να προκαλέσουν μαζικές κτηνωδίες».

Σύμφωνα με το δημοσίευμα του Guardian, κάποια από τα αυτόνομα όπλα που αναπτύσσονται ανά τον κόσμο είναι τα εξής:

-Το ΑΝ-2 Anaconda για το αμερικανικό πολεμικό ναυτικό, που αναπτύσσεται ως ένα «εντελώς αυτόνομο σκάφος εξοπλισμένο με δυνατότητες τεχνητής νοημοσύνης» και θα μπορεί να «παραμένει σε μια περιοχή για μεγάλες χρονικές περιόδους χωρίς ανθρώπινη παρέμβαση».

-Το ρωσικό T-14 Armata, ένα άρμα μάχης που προορίζεται για να μπορεί να λειτουργεί και μη επανδρωμένο και αυτόνομο.

-Το αυτόνομο πολεμικό πλοίο Sea Hunter, που προωθείται από το Πεντάγωνο των ΗΠΑ ως μια μεγάλη εξέλιξη στον τομέα της στρατιωτικής ρομποτικής τεχνολογίας. Ένα άοπλο πρωτότυπο 40 μέτρων έχει καθελκυστεί, το οποίο μπορεί να κινείται στην επιφάνεια του ωκεανού χωρίς πλήρωμα για διαστήματα 2-3 μηνών τη φορά.