Η τεχνητή νοημοσύνη έχει τη δυνατότητα να ανατρέψει τις βάσεις της πυρηνικής αποτροπής, και ως εκ τούτου την πυρηνική ισορροπία, ως το 2040, σύμφωνα με paper του RAND Corporation (αμερικανικό think tank).

Αν και θεωρείται μάλλον απίθανη η εμφάνιση «αποκαλυπτικών» μηχανών φοβερής καταστρεπτικότητας που θα ελέγχονται από τεχνητές νοημοσύνες, ο κίνδυνος που συνιστά η τεχνητή νοημοσύνη για την πυρηνική ασφάλεια έγκειται, σύμφωνα με την έρευνα, στη δυνατότητά της να ενθαρρύνει τους ανθρώπους να πάρουν ρίσκα τα οποία μπορεί να έχουν δυνάμει τρομακτικές συνέπειες.

Όπως αναφέρεται στην έρευνα, κατά την περίοδο του Ψυχρού Πολέμου η αρχή της αμοιβαίας εξασφαλισμένης καταστροφής (MAD- Mutually Assured Destruction) διατηρούσε την ειρήνη (έστω και ασταθή) μεταξύ των υπερδυνάμεων, καθώς διασφάλιζε πως οποιαδήποτε επίθεση θα επέφερε καταστροφικά αντίποινα. Το αποτέλεσμα ήταν η επίτευξη στρατηγικής σταθερότητας, καθώς ελαχιστοποιούνταν τα κίνητρα για ενέργειες που θα μπορούσαν να οδηγήσουν σε πυρηνικό πόλεμο.

Σύμφωνα με το νέο paper, τις προσεχείς δεκαετίες η τεχνητή νοημοσύνη θα έχει τη δυνατότητα να «φθείρει» το δόγμα της αμοιβαίας εξασφαλισμένης καταστροφής, υπονομεύοντας τη στρατηγική σταθερότητα: Βελτιωμένες τεχνολογίες αισθητήρων θα μπορούσαν να εισάγουν στην «εξίσωση» την δυνατότητα καταστροφής δυνάμεων που θα μπορούσαν να προβούν σε αντίποινα, όπως αυτοκινούμενοι εκτοξευτές πυραύλων και υποβρύχια. Ως αποτέλεσμα, τα αντίπαλα κράτη ενδεχομένως να βρίσκονταν στον πειρασμό να επιδιώξουν δυνατότητες πρώτου πλήγματος, με σκοπό να αποκτήσουν πλεονέκτημα στις διαπραγματεύσεις με τους αντιπάλους τους, ακόμα και αν δεν έχουν σκοπό να επιτεθούν. Αυτό υπονομεύει τη στρατηγική σταθερότητα, επειδή, ακόμα και αν μια χώρα με τέτοιες δυνατότητες δεν προτίθεται να τις χρησιμοποιήσει, οι αντίπαλοί της δεν μπορούν να το γνωρίζουν.

«Η σύνδεση μεταξύ του πυρηνικού πολέμου και της τεχνητής νοημοσύνης δεν είναι καινούρια- βασικά οι ιστορίες τους συνδέονται», σχολιάζει ο Έντουαρντ Γκάιστ, ένας από τους συντάκτες του paper και associate policy researcher του RAND Corporation. «Μεγάλο μέρος της πρώιμης ανάπτυξης της ΑΙ έλαβε χώρα προς στήριξη στρατιωτικών προσπαθειών, ή με στρατιωτικούς σκοπούς κατά νου».

Όπως πρόσθεσε, ένα τέτοιο παράδειγμα ήταν το Survivable Adaptive Planning Experiment τη δεκαετία του 1980 που είχε σκοπό τη χρήση ΑΙ για την αξιοποίηση δεδομένων αναγνώρισης για σκοπούς σχεδίων στόχευσης με πυρηνικά όπλα.

Μια πιο αισιόδοξη προσέγγιση είναι ότι η ΑΙ θα μπορούσε να βελτιώσει τη στρατηγική σταθερότητα, βελτιώνοντας την ακρίβεια στη συλλογή και ανάλυση πληροφοριών, σύμφωνα με το paper. Επίσης, αν και η ΑΙ θα μπορούσε να κάνει πιο ευάλωτες τις δυνάμεις δεύτερου πλήγματος, βελτιωμένες δυνατότητες παρακολούθησης και ερμηνείας των εχθρικών ενεργειών θα μπορούσαν να μειώσουν το ενδεχόμενο κάποιου λάθους που θα μπορούσε να επιφέρει κλιμάκωση. Οι ερευνητές υποστηρίζουν πως, δεδομένων των βελτιώσεων στο μέλλον, είναι δυνατόν τα συστήματα τεχνητής νοημοσύνης να αναπτύξουν δυνατότητες οι οποίες, αν και όχι αλάθητες, θα ήταν λιγότερο επιρρεπείς σε σφάλματα από τους ανθρώπους- άρα θα είχαν σταθεροποιητική επίδραση μακροπρόθεσμα. Πάντως δεν τη συμμερίζονται πολλοί αυτή την αισιοδοξία: «Κάποιοι ερευνητές φοβούνται πως μια αυξημένη εξάρτηση από την τεχνητή νοημοσύνη μπορεί να οδηγήσει σε νέα είδη καταστροφικών λαθών» λέει ο Άντριου Λον, άλλος ένας από τους συντάκτες της έρευνας. «Ίσως να υπάρχει πίεση για χρήση τεχνητής νοημοσύνης πριν να είναι ώριμη τεχνολογικά, ή μπορεί να είναι ευάλωτη σε υπονόμευση από αντιπάλους. Οπότε, η διατήρηση της στρατηγικής σταθερότητας τις προσεχείς δεκαετίες ίσως να αποδειχθεί εξαιρετικά δύσκολη και όλες οι πυρηνικές δυνάμεις πρέπει να συμμετέχουν στη δημιουργία θεσμών που θα βοηθούν στον περιορισμό του πυρηνικού κινδύνου».

Πηγή: naftemporiki.gr