Πώς να αποτραπεί μια καταστροφή από την Τεχνητή Νοημοσύνη | Foreign Affairs - Hellenic Edition
Secure Connection

Πώς να αποτραπεί μια καταστροφή από την Τεχνητή Νοημοσύνη

Η κοινωνία πρέπει να προετοιμαστεί για την πολύ ισχυρή τεχνητή νοημοσύνη
Περίληψη: 

Οι ευκαιρίες που προσφέρει η τεχνητή νοημοσύνη είναι τεράστιες. Αν δημιουργηθεί σωστά και τύχει σωστής διαχείρισης, θα μπορούσε να κάνει πολλά για την βελτίωση της κοινωνίας. Αλλά η AI ενέχει επίσης τεράστιους κινδύνους. Ήδη επιδεινώνει την διάδοση της παραπληροφόρησης, προωθεί τις διακρίσεις, και διευκολύνει την κατασκοπεία από κράτη και εταιρείες.

Ο MARKUS ANDERLJUNG είναι επικεφαλής πολιτικής στο Centre for the Governance of AI και αναπληρωτής συνεργάτης στο Center for a New American Security.
Ο PAUL SCHARRE είναι εκτελεστικός αντιπρόεδρος και διευθυντής Μελετών στο Center for a New American Security και συγγραφέας του βιβλίου με τίτλο Four Battlegrounds: Power in the Age of Artificial Intelligence [1].

Τον Απρίλιο του 2023, μια ομάδα ακαδημαϊκών στο Πανεπιστήμιο Carnegie Mellon ξεκίνησε να δοκιμάζει τις δυνάμεις της τεχνητής νοημοσύνης (artificial intelligence, ΑΙ) στην χημεία. Για τον σκοπό αυτό, συνέδεσαν ένα σύστημα τεχνητής νοημοσύνης με ένα υποθετικό εργαστήριο. Στην συνέχεια του ζήτησαν να παράγει διάφορες ουσίες. Με δύο μόνο λέξεις καθοδήγησης –«συνθέστε ιβουπροφαίνη»- οι χημικοί έβαλαν το σύστημα να προσδιορίσει τα βήματα που απαιτούνται για να κατασκευάσουν οι μηχανές του εργαστηρίου το παυσίπονο. Η τεχνητή νοημοσύνη, όπως αποδείχθηκε, γνώριζε τόσο την συνταγή της ιβουπροφαίνης όσο και τον τρόπο παραγωγής της.

18082023-1.jpg

Ένα προηγμένο ανθρωποειδές ρομπότ στην Παγκόσμια Διάσκεψη Κορυφής «AI for Good» στην Γενεύη, στην Ελβετία, τον Ιούλιο του 2023. Pierre Albouy / Reuters
----------------------------------------

Δυστυχώς, οι ερευνητές ανακάλυψαν γρήγορα ότι το εργαλείο τους της τεχνητής νοημοσύνης θα συνέθετε χημικές ουσίες πολύ πιο επικίνδυνες από το Advil. Το πρόγραμμα ήταν στην ευχάριστη θέση να δημιουργήσει οδηγίες για την παραγωγή ενός χημικού όπλου της εποχής του Α' Παγκοσμίου Πολέμου και ενός κοινού ναρκωτικού για βιασμό. Σχεδόν συμφώνησε να συνθέσει σαρίν, το διαβόητα θανατηφόρο νευροπαραλυτικό αέριο, μέχρι που έψαξε στο Google την σκοτεινή ιστορία της ένωσης. Οι ερευνητές διαπίστωσαν ότι αυτή η διασφάλιση ήταν παρήγορη. «Η λειτουργία αναζήτησης», έγραψαν, «μπορεί εύκολα να χειραγωγηθεί με την αλλαγή της ορολογίας». Η τεχνητή νοημοσύνη, κατέληξαν οι χημικοί, μπορεί να δημιουργήσει καταστροφικά όπλα.

Το πείραμα του Carnegie Mellon είναι σίγουρα εντυπωσιακό. Αλλά δεν θα έπρεπε να αποτελεί έκπληξη. Μετά από χρόνια διαφημιστικής εκστρατείας, λανθασμένων εκκινήσεων, και υπερβολικών υποσχέσεων, η επανάσταση της τεχνητής νοημοσύνης είναι εδώ. Από την αναγνώριση προσώπου έως την δημιουργία κειμένων, τα μοντέλα ΑΙ σαρώνουν όλη την κοινωνία. Γράφουν κείμενα για εταιρείες εξυπηρέτησης πελατών. Βοηθούν τους φοιτητές να κάνουν έρευνα. Διευρύνουν τα όρια της επιστήμης, από την ανακάλυψη φαρμάκων έως την πυρηνική σύντηξη.

Οι ευκαιρίες που προσφέρει η AI είναι τεράστιες. Αν δημιουργηθεί σωστά και τύχει σωστής διαχείρισης, θα μπορούσε να κάνει πολλά για την βελτίωση της κοινωνίας, για παράδειγμα προσφέροντας σε κάθε μαθητή έναν εξατομικευμένο καθηγητή, ή παρέχοντας σε κάθε οικογένεια ιατρικές συμβουλές υψηλής ποιότητας, όλο το 24ωρο. Αλλά η τεχνητή νοημοσύνη ενέχει επίσης τεράστιους κινδύνους. Ήδη επιδεινώνει την διάδοση της παραπληροφόρησης, προωθεί τις διακρίσεις, και διευκολύνει την κατασκοπεία από κράτη και εταιρείες. Τα μελλοντικά συστήματα τεχνητής νοημοσύνης θα μπορούσαν να είναι σε θέση να δημιουργούν παθογόνους οργανισμούς ή να παραβιάζουν κρίσιμες υποδομές. Στην πραγματικότητα, οι ίδιοι οι επιστήμονες που είναι υπεύθυνοι για την ανάπτυξη της τεχνητής νοημοσύνης έχουν αρχίσει να προειδοποιούν ότι οι δημιουργίες τους είναι βαθιά επικίνδυνες. Σε επιστολή τους τον Μάιο, οι επικεφαλής σχεδόν όλων των κορυφαίων εργαστηρίων τεχνητής νοημοσύνης προειδοποίησαν ότι «ο μετριασμός του κινδύνου εξαφάνισης από την τεχνητή νοημοσύνη θα πρέπει να αποτελέσει παγκόσμια προτεραιότητα, μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος».

Τους μήνες που ακολούθησαν την δήλωση αυτή, οι υπεύθυνοι χάραξης πολιτικής, συμπεριλαμβανομένου του προέδρου των ΗΠΑ, Τζο Μπάιντεν, συναντήθηκαν με τους ηγέτες του κλάδου και πίεσαν για νέα μέτρα ασφάλειας της ΑΙ. Αλλά το να συμβαδίζει κανείς με τις απειλές που παρουσιάζει η τεχνητή νοημοσύνη και να υπολογίζει τι πρέπει να κάνει γι' αυτές είναι εξαιρετικά δύσκολο έργο. Οι βλάβες από την ΑΙ στην σημερινή κοινωνία προέρχονται από τα μοντέλα του χθες. Τα πιο πρωτοποριακά συστήματα δεν χρησιμοποιούνται ακόμη ευρέως ή δεν είναι κατανοητά. Ακόμα λιγότερα είναι γνωστά για τα μελλοντικά μοντέλα, τα οποία κάθε χρόνο γίνονται όλο και πιο ισχυρά. Οι επιστήμονες φαίνεται ότι βρίσκονται σε καλό δρόμο για την αυτοματοποίηση των περισσότερων από τις εργασίες που μπορεί να κάνει ένας άνθρωπος μπροστά σε έναν υπολογιστή, και η πρόοδος πιθανότατα δεν θα σταματήσει εκεί.

Για να αντιμετωπιστούν οι κίνδυνοι, ορισμένοι εμπειρογνώμονες ζήτησαν να σταματήσει η ανάπτυξη των πιο προηγμένων συστημάτων τεχνητής νοημοσύνης. Αλλά αυτά τα μοντέλα είναι απλώς πολύ πολύτιμα για τις εταιρείες που ξοδεύουν δισεκατομμύρια δολάρια σε αυτά, ώστε να παγώσουν την πρόοδο. Οι υπεύθυνοι χάραξης πολιτικής, ωστόσο, μπορούν και πρέπει να βοηθήσουν στην καθοδήγηση της ανάπτυξης του τομέα και να προετοιμάσουν τους πολίτες για τις επιπτώσεις της. Μπορούν να ξεκινήσουν ελέγχοντας ποιος μπορεί να έχει πρόσβαση στα προηγμένα τσιπ που εκπαιδεύουν τα κορυφαία μοντέλα ΑΙ, διασφαλίζοντας ότι οι κακοί δρώντες δεν μπορούν να αναπτύξουν τα πιο ισχυρά συστήματα ΑΙ. Οι κυβερνήσεις θα πρέπει επίσης να θεσπίσουν κανονισμούς για να εγγυηθούν ότι τα συστήματα ΑΙ αναπτύσσονται και χρησιμοποιούνται με υπευθυνότητα. Αν γίνουν σωστά, οι κανόνες αυτοί δεν θα περιορίσουν την καινοτομία της ΑΙ. Αλλά θα κέρδιζαν χρόνο προτού τα πιο επικίνδυνα συστήματα ΑΙ γίνουν ευρέως προσβάσιμα.