Η Κίνα φλερτάρει με μια καταστροφή μέσω Τεχνητής Νοημοσύνης | Foreign Affairs - Hellenic Edition
Secure Connection

Η Κίνα φλερτάρει με μια καταστροφή μέσω Τεχνητής Νοημοσύνης

Γιατί τα ατυχήματα αποτελούν τον μεγαλύτερο κίνδυνο
Περίληψη: 

Όπως και στον Ψυχρό Πόλεμο, η κούρσα των όπλων και ο τεχνολογικός ανταγωνισμός μπορεί να προσελκύουν μεγάλο ενδιαφέρον, αλλά οι κίνδυνοι για την ασφάλεια είναι εξίσου άξιοι ανησυχίας, ιδίως σε αυταρχικά κράτη.

Ο BILL DREXEL είναι συνεργάτης του Center for a New American Security (CNAS), όπου ερευνά την τεχνητή νοημοσύνη, τον τεχνολογικό ανταγωνισμό, και την εθνική ασφάλεια.
Η HANNAH KELLEY είναι βοηθός ερευνητή στο CNAS, όπου μελετά την τεχνολογική στρατηγική των ΗΠΑ και την διεθνή τεχνολογική συνεργασία.

Λίγοι από τους πρώτους παρατηρητές του Ψυχρού Πολέμου θα μπορούσαν να φανταστούν ότι η χειρότερη πυρηνική καταστροφή της εποχής θα συνέβαινε σε μια άγνωστη εγκατάσταση παραγωγής ενέργειας στην Ουκρανία. Η καταστροφή του Τσερνομπίλ το 1986 ήταν το αποτέλεσμα ενός ελαττωματικού σχεδιασμού πυρηνικού αντιδραστήρα και μιας σειράς λαθών που έγιναν από τους χειριστές του εργοστασίου. Το γεγονός ότι οι παγκόσμιες υπερδυνάμεις έμπαιναν σε μια κούρσα εξοπλισμών δυνητικά καταστροφικού μεγέθους έτεινε να επισκιάζει τους λιγότερο προφανείς κινδύνους που εγκυμονούσε αυτό που ήταν τότε μια πειραματική νέα τεχνολογία. Και όμως, παρά τα τρομακτικά επεισόδια, όπως η κρίση των πυραύλων της Κούβας το 1962, ήταν μια αποτυχία απλών μέτρων ασφαλείας η οποία επιδεινώθηκε από την αυταρχική αδεξιότητα της κρίσης που οδήγησε στην ανεξέλεγκτη απελευθέρωση 400 φορές περισσότερη ακτινοβολία από εκείνη που εξέπεμψε η αμερικανική πυρηνική βόμβα στην Χιροσίμα το 1945. Οι εκτιμήσεις για την καταστροφή από το Τσερνομπίλ κυμαίνονται από εκατοντάδες έως δεκάδες χιλιάδες πρόωρους θανάτους από την ακτινοβολία -για να μην αναφέρουμε μια «ζώνη αποκλεισμού» που είναι διπλάσια σε μέγεθος από το Λονδίνο και παραμένει σε μεγάλο βαθμό εγκαταλελειμμένη μέχρι σήμερα.

31052023-1.jpg

Το εκθεσιακό κέντρο Zhongguancun National Innovation Demonstration Zone στο Πεκίνο, τον Φεβρουάριο του 2022. Florence Lo / Reuters
--------------------------------------------

Καθώς ο κόσμος κατασταλάζει σε μια νέα εποχή αντιπαλότητας -αυτήν την φορά μεταξύ της Κίνας και των Ηνωμένων Πολιτειών-, ο ανταγωνισμός για μια άλλη επαναστατική τεχνολογία, την τεχνητή νοημοσύνη, έχει προκαλέσει ένα κύμα στρατιωτικών και ηθικών ανησυχιών παράλληλων με εκείνες που ξεκίνησαν από την πυρηνική κούρσα. Αυτές οι ανησυχίες αξίζουν την προσοχή που λαμβάνουν, και όχι μόνο: ένας κόσμος αυτόνομων όπλων και πολέμου με μηχανική ταχύτητα θα μπορούσε να έχει καταστροφικές συνέπειες για την ανθρωπότητα. Η χρήση εργαλείων τεχνητής νοημοσύνης από το Πεκίνο για να συμβάλει στην τροφοδότηση των εγκλημάτων κατά της ανθρωπότητας εναντίον του λαού των Ουιγούρων στην Σιντζιάνγκ ισοδυναμεί ήδη με καταστροφή.

Εξίσου ανησυχητική όμως θα πρέπει να είναι και η πιθανότητα οι μηχανικοί τεχνητής νοημοσύνης (artificial intelligence, ΑΙ) να προκαλέσουν ακούσια ατυχήματα με τραγικές συνέπειες. Παρόλο που τα συστήματα ΑΙ δεν εκρήγνυνται όπως οι πυρηνικοί αντιδραστήρες, οι εκτεταμένες δυνατότητές τους για καταστροφή περιλαμβάνουν τα πάντα, από την ανάπτυξη νέων θανατηφόρων παθογόνων μικροοργανισμών έως την παραβίαση κρίσιμων συστημάτων όπως τα ηλεκτρικά δίκτυα και οι αγωγοί πετρελαίου. Λόγω της χαλαρής προσέγγισης του Πεκίνου απέναντι στους τεχνολογικούς κινδύνους και της χρόνιας κακής διαχείρισης των κρίσεων, ο κίνδυνος ατυχημάτων από ΑΙ είναι πιο σοβαρός στην Κίνα. Μια καθαρή αξιολόγηση αυτών των κινδύνων -και της πιθανότητας διάχυσης πολύ πέρα από τα σύνορα της Κίνας- θα πρέπει να αναδιαμορφώσει τον τρόπο με τον οποίο ο τομέας της ΑΙ εξετάζει τους κινδύνους της εργασίας του.

ΜΙΑ ΔΙΑΦΟΡΕΤΙΚΗ ΑΙΣΘΗΣΗ ΚΙΝΔΥΝΟΥ

Ο χαρακτηρισμός του κινδύνου της τεχνητής νοημοσύνης αποτελεί θέμα δημόσιας συζήτησης τους τελευταίους μήνες, με ορισμένους ειδικούς να υποστηρίζουν ότι η υπεράνθρωπη νοημοσύνη θα αποτελέσει κάποια στιγμή υπαρξιακή απειλή για την ανθρωπότητα και άλλους να κατακεραυνώνουν τους «μοιρολάτρες της τεχνητής νοημοσύνης» για καταστροφολογία. Αλλά ακόμη και αν αφήσουμε κατά μέρος τους πιο ακραίους φόβους για μια δυστοπία της ΑΙ, προηγούμενα περιστατικά έχουν δώσει πολλούς λόγους να ανησυχούμε για ακούσιες καταστροφές μεγάλης κλίμακας στο εγγύς μέλλον.

Για παράδειγμα, οι σύνθετες αλληλεπιδράσεις μεταξύ των συστημάτων ΑΙ στον τομέα της χρηματοοικονομικής θα μπορούσαν να προκαλέσουν κατά λάθος συντριβή των αγορών, όπως συνέβη με τις αλγοριθμικές συναλλαγές στο «flash crash» του 2010, το οποίο εξαφάνισε προσωρινά μετοχές αξίας ενός τρισεκατομμυρίου δολαρίων μέσα σε λίγα λεπτά. Όταν οι ερευνητές φαρμάκων χρησιμοποίησαν την ΑΙ για να αναπτύξουν 40.000 πιθανά βιοχημικά όπλα σε λιγότερο από έξι ώρες πέρυσι, έδειξαν [1] το πώς σχετικά απλά συστήματα ΑΙ μπορούν εύκολα να προσαρμοστούν με καταστροφικά αποτελέσματα. Οι εξελιγμένες επιθέσεις στον κυβερνοχώρο με την βοήθεια της ΑΙ θα μπορούσαν επίσης να ξεφύγουν, εκτροχιάζοντας αδιακρίτως κρίσιμα συστήματα από τα οποία εξαρτώνται οι κοινωνίες, όχι σε αντίθεση με την περιβόητη επίθεση NotPetya, την οποία η Ρωσία εξαπέλυσε εναντίον της Ουκρανίας το 2017, αλλά τελικά μόλυνε υπολογιστές σε ολόκληρο τον κόσμο. Παρά τις προειδοποιητικές αυτές ενδείξεις, η τεχνολογία ΑΙ συνεχίζει να εξελίσσεται με ιλιγγιώδη ταχύτητα, με αποτέλεσμα οι κίνδυνοι για την ασφάλεια να πολλαπλασιάζονται ταχύτερα από όσο μπορούν να δημιουργηθούν λύσεις.

Οι περισσότεροι Αμερικανοί ίσως να μην γνωρίζουν καλά τις λεπτομέρειες αυτών των κινδύνων, αλλά αναγνωρίζουν τους κινδύνους που εγκυμονεί η ενσωμάτωση νέων ισχυρών τεχνολογιών σε πολύπλοκα, επακόλουθα συστήματα. Σύμφωνα με μια έρευνα της Ipsos [2] που δημοσιεύθηκε το 2022, μόνο το 35% των Αμερικανών πιστεύει ότι τα οφέλη της τεχνητής νοημοσύνης υπερτερούν των κινδύνων της, καθιστώντας τις Ηνωμένες Πολιτείες από τις πιο απαισιόδοξες χώρες στον κόσμο όσον αφορά τις υποσχέσεις της τεχνολογίας. Έρευνες σε μηχανικούς αμερικανικών εργαστηρίων τεχνητής νοημοσύνης υποδηλώνουν ότι μπορεί να είναι, αν μη τι άλλο, πιο ευαισθητοποιημένοι σε θέματα ασφάλειας από το ευρύτερο κοινό. Ο Geoffrey Hinton, γνωστός ως ο «νονός της τεχνητής νοημοσύνης», και μέχρι πρόσφατα αντιπρόεδρος της Google, εγκατέλειψε την βιομηχανία για να υποστηρίξει [3] ότι οι επιστήμονες πρέπει να απέχουν από την κλιμάκωση της τεχνολογίας τεχνητής νοημοσύνης «μέχρι να κατανοήσουν αν μπορούν να την ελέγξουν».