Βασικοί κανόνες για την εποχή του πολέμου με Τεχνητή Νοημοσύνη | Foreign Affairs - Hellenic Edition
Secure Connection

Βασικοί κανόνες για την εποχή του πολέμου με Τεχνητή Νοημοσύνη

Πώς να αποτραπούν τα αυτόνομα όπλα από το να περιπέσουν σε σύγκρουση

Πλήρως αυτόνομα στρατιωτικά συστήματα δεν υπάρχουν ακόμη, και η ανάπτυξη συστημάτων με τεχνητή νοημοσύνη στο πεδίο της μάχης παραμένει περιορισμένη. Ωστόσο, οι στρατοί παγκοσμίως επενδύουν σημαντικά στην έρευνα και την ανάπτυξη της τεχνητής νοημοσύνης. Μόνο το Υπουργείο Άμυνας των ΗΠΑ έχει σχεδόν 700 ενεργά έργα τεχνητής νοημοσύνης[6]. Μεταξύ αυτών είναι το πρόγραμμα Scarlet Dragon του αμερικανικού στρατού, το οποίο έχει χρησιμοποιήσει ΑΙ για τον εντοπισμό στόχων σε ασκήσεις με πραγματικά πυρά, και το Task Force 59 του αμερικανικού ναυτικού, το οποίο επιδιώκει την ανάπτυξη οικονομικά αποδοτικών, πλήρως αυτόνομων συστημάτων επιτήρησης. Η Πολεμική Αεροπορία των ΗΠΑ ελπίζει να δημιουργήσει μια μέρα σμήνη έξυπνων όπλων ικανών να επικοινωνούν αυτόνομα μεταξύ τους και να ανταλλάσσουν πληροφορίες για πιθανούς στόχους.

Ο αμερικανικός στρατός δεν είναι ο μόνος καινοτόμος σε αυτό το μέτωπο. Τον Απρίλιο, η Αυστραλία, το Ηνωμένο Βασίλειο, και οι Ηνωμένες Πολιτείες διεξήγαγαν μια κοινή δοκιμή [7] στην οποία ένα σμήνος εναέριων και επίγειων οχημάτων με δυνατότητα τεχνητής νοημοσύνης συνεργάστηκε για τον εντοπισμό και την παρακολούθηση στόχων. Η Κίνα επενδύει σε μια σειρά από υποβρύχιους αισθητήρες με δυνατότητες τεχνητής νοημοσύνης, ορισμένοι από τους οποίους φέρονται [8] να χρησιμοποιούνται ήδη στην Θάλασσα της Νότιας Κίνας. Ο πόλεμος στην Ουκρανία έχει γίνει μάρτυρας μερικών από τις πρώτες πραγματικές χρήσεις της ΑΙ σε άμεσες συγκρούσεις [9]. Μεταξύ άλλων, οι ουκρανικές δυνάμεις έχουν χρησιμοποιήσει μια διεπαφή [interface] λογισμικού ΑΙ [10] που ενοποιεί εμπορικά δορυφορικά δεδομένα, θερμικές εικόνες πυρών πυροβολικού, και άλλες πληροφορίες. Οι πληροφορίες τοποθετούνται σε ψηφιακούς χάρτες που οι διοικητές στο έδαφος μπορούν να χρησιμοποιήσουν για να επιλέξουν τους στόχους τους.

ΘΑΝΑΤΗΦΟΡΕΣ ΠΑΡΑΝΟΗΣΕΙΣ

Ενθαρρυμένοι από τα οφέλη που ήδη αποκομίζουν από τα συστήματα με τεχνητή νοημοσύνη, οι στρατοί πιθανότατα θα παραμείνουν στην τρέχουσα πορεία τους και θα σχεδιάσουν μελλοντικά συστήματα με αυξανόμενο βαθμό αυτονομίας. Αυτή η ώθηση προς την αυτονομία με χρήση τεχνητής νοημοσύνης θα ξεκλειδώσει σίγουρα στρατηγικά και τακτικά πλεονεκτήματα, αλλά αυτά θα έρθουν με κάποιο κόστος.

Ίσως η μεγαλύτερη πρόκληση είναι ότι οι άνθρωποι που αντιμετωπίζουν ένα αυτόνομο στρατιωτικό σύστημα μπορεί να βρεθούν σε επαφή, στην ουσία, με ένα μαύρο κουτί [στμ: black box, ένα ακατανόητο αντικείμενο]. Όταν έρχονται αντιμέτωποι ή στοχοποιούνται, ίσως να δυσκολεύονται να εκτιμήσουν την πρόθεση του συστήματος και να κατανοήσουν την λήψη των αποφάσεών του. Αυτό είναι εν μέρει ένα χαρακτηριστικό εγγενές στην τεχνολογία, επειδή ο εν λειτουργία αλγόριθμος συχνά δεν θα εξηγήσει ή δεν μπορεί [11] να εξηγήσει την «διαδικασία σκέψης» του με όρους που μπορούν να κατανοήσουν οι άνθρωποι. Οι αντίπαλοι, με την σειρά τους, ίσως να δυσκολεύονται να διακρίνουν την εσκεμμένη επιθετικότητα από την εσφαλμένη συμπεριφορά της ΑΙ, αφήνοντάς τους αβέβαιους για το πώς να αντιδράσουν. Ακόμα χειρότερα, η έρευνα [12] υποδεικνύει ότι η τυχαία χρήση βίας από ένα αυτόνομο οπλικό σύστημα με ΑΙ ίσως να προκαλέσει μια πιο επιθετική αντίδραση από το συμβατικό ανθρώπινο σφάλμα: οι ηγέτες της χώρας-στόχου μπορεί να αισθάνονται οργισμένοι από την απόφαση της άλλης πλευράς να αναθέσει εξαρχής την λήψη θανατηφόρων αποφάσεων σε μια μηχανή, και ίσως να επιλέξουν μια δυναμική αντίδραση για να δείξουν αυτήν την δυσαρέσκεια.

Ορισμένα από τα νέα σενάρια και οι κίνδυνοι ασφαλείας που συνεπάγονται μπορεί να διαφέρουν όχι μόνο από το ανθρώπινο λάθος αλλά και από την συνήθη ομίχλη του πολέμου. Πάρτε ένα πρόσφατο πείραμα σκέψης [13] που διεξήχθη από έναν αξιωματούχο υπεύθυνο για τις δοκιμές τεχνητής νοημοσύνης της Πολεμικής Αεροπορίας των ΗΠΑ, στο οποίο ένα drone με τεχνητή νοημοσύνη εκπαιδεύεται να εντοπίζει στόχους και να τους καταστρέφει κατόπιν έγκρισης από έναν ανθρώπινο χειριστή. Κάθε εξουδετερωμένος στόχος ισούται με έναν πόντο και η ΑΙ επιδιώκει να μεγιστοποιήσει ένα σκορ βάσει πόντων. Ίσως να καταλήξει στο συμπέρασμα ότι η εξάρτησή του από την ανθρώπινη έγκριση για τα πλήγματα περιορίζει την ικανότητά του να συσσωρεύει πόντους και, ως εκ τούτου, ίσως να αποφασίσει να εξουδετερώσει τον χειριστή. Αν ο προγραμματισμός της ΑΙ έχει τροποποιηθεί ώστε να αφαιρεί πόντους για την δολοφονία του χειριστή, η ΑΙ μπορεί να καταφύγει στην καταστροφή του πύργου επικοινωνίας που αναμεταδίδει τις εντολές του χειριστή. Αυτό που διαφοροποιεί αυτό το σενάριο από το παραδοσιακό ανθρώπινο λάθος ή από έναν στρατιώτη που αποστασιοποιείται είναι ότι οι ενέργειες της ΑΙ δεν είναι ούτε τυχαίες ούτε παραβιάζουν τον προγραμματισμό της. Η συμπεριφορά αυτή, αν και ανεπιθύμητη, είναι ένα χαρακτηριστικό και όχι ένα σφάλμα. Πρόκειται για μια κλασική περίπτωση του «προβλήματος ευθυγράμμισης» (“alignment problem”): είναι δύσκολο να αναπτυχθεί και να προγραμματιστεί η ΑΙ έτσι ώστε οι ενέργειές της να συμπίπτουν ακριβώς με τους ανθρώπινους στόχους και αξίες, και το λάθος μπορεί να έχει σοβαρές συνέπειες.

Ένας πρόσθετος κίνδυνος είναι ο ρόλος που θα μπορούσαν να διαδραματίσουν τα αυτόνομα συστήματα και τα συστήματα με τεχνητή νοημοσύνη σε στρατιωτικές αντιπαραθέσεις και σε παίγνια του δειλού (games of chicken). Η ανθρώπινη απερισκεψία μετριάζεται, μεταξύ άλλων, από το ένστικτο της επιβίωσης, αλλά αυτό το ένστικτο μπορεί να μην έρθει ίσως στο προσκήνιο όταν τα αυτόνομα συστήματα αναπτύσσονται χωρίς ανθρώπινο χειριστή επί του συστήματος. Σκεφτείτε ένα άλλο σενάριο: ένα ζεύγος πλήρως αυτόνομων αεροσκαφών από αντίπαλες χώρες έρχονται αντιμέτωπα στον ουρανό πάνω από αμφισβητούμενο έδαφος. Και τα δύο συστήματα αντιλαμβάνονται το άλλο ως απειλή και, δεδομένου ότι είναι προγραμματισμένα για επιθετικότητα, επιδίδονται σε κλιμακούμενους ελιγμούς για να διεκδικήσουν την κυριαρχία τους. Σύντομα, το ένα ή και τα δύο συστήματα υφίστανται ζημιές ή καταρρίπτονται χωρίς λόγο και οι αντίπαλες χώρες αντιμετωπίζουν μια κρίση.