Οι πρόσφατες γεωπολιτικές εξελίξεις αναδεικνύουν μια σημαντική αλλαγή στον τρόπο με τον οποίο διεξάγονται οι πόλεμοι. Η Τεχνητή Νοημοσύνη εισέρχεται στο πεδίο της μάχης όχι μόνο ως εργαλείο υποστήριξης, αλλά ολοένα και περισσότερο ως παράγοντας λήψης αποφάσεων.
Αν στον 20ό αιώνα η στρατιωτική ισχύς καθοριζόταν από την πυρηνική τεχνολογία και τα βαριά οπλικά συστήματα, στον 21ο αιώνα το επίκεντρο μετατοπίζεται στα δεδομένα, στους αλγορίθμους και στην αυτονομία των μηχανών.
Σήμερα, στρατιωτικές εφαρμογές Τεχνητής Νοημοσύνης χρησιμοποιούνται για ανάλυση πληροφοριών, αναγνώριση στόχων, κυβερνοάμυνα και συντονισμό μη επανδρωμένων συστημάτων, όπως drones και αυτόνομα οχήματα. Σε ορισμένες περιπτώσεις, τα συστήματα αυτά μπορούν να επεξεργαστούν τεράστιους όγκους δεδομένων και να προτείνουν στρατιωτικές επιλογές σε χρόνο που καμία ανθρώπινη ομάδα δεν θα μπορούσε να ανταγωνιστεί.
Ωστόσο, η τεχνολογική αυτή εξέλιξη δημιουργεί βαθιά ηθικά και πολιτικά ερωτήματα. Ένα από τα πιο αμφιλεγόμενα ζητήματα αφορά τα λεγόμενα αυτόνομα οπλικά συστήματα (lethal autonomous weapons), δηλαδή όπλα που μπορούν να επιλέγουν και να πλήττουν στόχους χωρίς άμεση ανθρώπινη παρέμβαση. Η διεθνής κοινότητα ανησυχεί ότι η χρήση τέτοιων συστημάτων μπορεί να μειώσει τον ανθρώπινο έλεγχο στον πόλεμο και να αυξήσει τον κίνδυνο ανεξέλεγκτης κλιμάκωσης συγκρούσεων.
Η Ευρωπαϊκή Ένωση επιχειρεί να θεσπίσει κανόνες για τα συστήματα Τεχνητής Νοημοσύνης μέσω του AI Act, του πρώτου ολοκληρωμένου νομικού πλαισίου παγκοσμίως για τη ρύθμιση του κινδύνου που μπορεί να δημιουργήσει η ΤΝ. Ορισμένες εφαρμογές θεωρούνται ότι ενέχουν μη αποδεκτούς κινδύνους και απαγορεύονται, ενώ άλλες χαρακτηρίζονται «υψηλού κινδύνου» και υπόκεινται σε αυστηρές υποχρεώσεις διαφάνειας και ελέγχου.
Ωστόσο, εδώ εμφανίζεται ένα παράδοξο: οι εφαρμογές Τεχνητής Νοημοσύνης όταν χρησιμοποιούνται αποκλειστικά για την εθνική άμυνα, ασφάλεια και σε στρατιωτικές χρήσεις εξαιρούνται από το πεδίο εφαρμογής του AI Act. Αυτό σημαίνει ότι τα συστήματα αυτά που χρησιμοποιούνται αποκλειστικά για σκοπούς άμυνας ή εθνικής ασφάλειας ρυθμίζονται κυρίως από εθνικές πολιτικές των κρατών-μελών και όχι από τον ευρωπαϊκό κανονισμό.
Η επιλογή αυτή αντανακλά μια δύσκολη ισορροπία. Από τη μία πλευρά, η Ευρώπη θέλει να διατηρήσει υψηλά πρότυπα προστασίας δικαιωμάτων και ηθικής στη χρήση της Τεχνητής Νοημοσύνης. Από την άλλη, δεν επιθυμεί να περιορίσει υπερβολικά την αμυντική της βιομηχανία σε μια εποχή έντονου γεωπολιτικού ανταγωνισμού.
Το αποτέλεσμα είναι μια «γκρίζα ζώνη» ρύθμισης: ενώ η Ευρώπη πρωτοπορεί στη νομοθεσία για την τεχνητή νοημοσύνη, το πιο ευαίσθητο πεδίο —ο πόλεμος— παραμένει σε μεγάλο βαθμό εκτός του κανονιστικού της πλαισίου.
Το ερώτημα που αναδύεται είναι βαθύτερο από μια απλή τεχνολογική συζήτηση: ποιος ελέγχει τον πόλεμο όταν οι αποφάσεις αρχίζουν να λαμβάνονται από αλγορίθμους; Η απάντηση σε αυτό το ερώτημα θα καθορίσει όχι μόνο το μέλλον της στρατιωτικής ισχύος, αλλά και τα όρια της ανθρώπινης ευθύνης σε έναν κόσμο όπου οι μηχανές αποκτούν όλο και μεγαλύτερη αυτονομία.
* Η Βιργινία Κόκιου είναι Δικηγόρος, Senior Associate at APLegal, Νομική Σύμβουλος Ειδικού Γραμματέα Μακροπρόθεσμου Σχεδιασμού