Πώς η τεχνητή νοημοσύνη χρησιμοποιείται στις πολεμικές επιχειρήσεις – Τι φέρνει το μέλλον


Μόλις μία ημέρα πριν από την έναρξη της αμερικανο-ισραηλινής επίθεσης στις 28 Φεβρουαρίου, η κυβέρνηση των ΗΠΑ παραμέρισε έναν από τους βασικούς προμηθευτές της σε τεχνολογία AI, σε μια διαφωνία που ανέδειξε τις βαθιές ενστάσεις γύρω από τις επιτρεπτές στρατιωτικές χρήσεις αυτών των συστημάτων. Ενώ από τις 2 έως τις 6 Μαρτίου στη Γενεύη, ειδικοί του διεθνούς δικαίου, ακαδημαϊκοί και εμπειρογνώμονες συζήτησαν για τα φονικά αυτόνομα οπλικά συστήματα και τις προμήθειες στρατιωτικής τεχνητής νοημοσύνης, στο πλαίσιο των μακρόχρονων προσπαθειών για μια διεθνή συμφωνία.

Όπως σημειώνουν ερευνητές του πεδίου, η τεχνολογία προχωρά ταχύτερα από τη διπλωματία. Ο πολιτικός επιστήμονας Michael Horowitz, από το Πανεπιστήμιο της Πενσιλβάνια των ΗΠΑ, επισημαίνει στο περιοδικό Nature ότι οι εξελίξεις στην AI ξεπερνούν κατά πολύ τον ρυθμό των διεθνών διαβουλεύσεων. Ο Craig Jones, πολιτικός γεωγράφος στο Πανεπιστήμιο του Νιουκάσλ στο Ηνωμένο Βασίλειο, προειδοποιεί:

«Η τρέχουσα αποτυχία να ρυθμιστεί η πολεμική χρήση της τεχνητής νοημοσύνης ή να διακοπεί μέχρι να επιτευχθεί κάποια συμφωνία σχετικά με τη νομιμότητά της, φαίνεται να υποδηλώνει ότι η πιθανή εξάπλωση του πολέμου με τεχνητή νοημοσύνη είναι επικείμενη».

Η χρήση της AI από τον αμερικανικό στρατό είναι ήδη εκτεταμένη. Συστήματα που βασίζονται σε μεγάλα γλωσσικά μοντέλα (LLM) αξιοποιούνται για διοικητική και λογιστική υποστήριξη, για επεξεργασία και ανάλυση πληροφοριών, αλλά και για υποστήριξη αποφάσεων στο πεδίο της μάχης.

«Μύθος» η ακριβέστερη στόχευση της ΑΙ;

Το Maven Smart System, το οποίο χρησιμοποιεί τεχνητή νοημοσύνη σε εφαρμογές όπως η επεξεργασία εικόνας και η τακτική υποστήριξη, επιταχύνει τις επιχειρήσεις προτείνοντας και ιεραρχώντας στόχους. Σύμφωνα με δημοσιεύματα της Washington Post και άλλων μέσων, το σύστημα έχει αξιοποιηθεί τόσο σε προηγούμενες συγκρούσεις όσο και στις επιθέσεις εναντίον του Ιράν. «Οι λεπτομέρειες δεν είναι δημόσια γνωστές», λέει ο Horowitz.

Απεικόνιση του πώς μοιάζει περίπου ένα στιγμιότυπο οθόνης του Maven Smart System που χρησιμοποιεί ο αμερικανικός στρατός

0xReflektor / Wikimedia Commons

Η ακριβέστερη στόχευση που προσφέρει η AI θα μπορούσε να περιορίσει τα λάθη και να μειώσει τις απώλειες αμάχων. Ωστόσο, οι συνεχιζόμενες συγκρούσεις στην Ουκρανία και στη Γάζα – όπου η τεχνητή νοημοσύνη χρησιμοποιείται μεταξύ άλλων για αναγνώριση στόχων και πλοήγηση drones –έχουν προκαλέσει υψηλούς αριθμούς θανάτων αμάχων.

«Δεν υπάρχουν στοιχεία που να αποδεικνύουν ότι η τεχνητή νοημοσύνη μειώνει τους θανάτους αμάχων ή τις λανθασμένες αποφάσεις στόχευσης – μπορεί να ισχύει το αντίθετο», λέει ο Jones.

Η δυνατότητα χρήσης της τεχνητής νοημοσύνης για την καθοδήγηση θανατηφόρων αυτόνομων όπλων χωρίς ανθρώπινη εποπτεία είναι ένα εξαιρετικά αμφιλεγόμενο θέμα. Οι ένοπλες δυνάμεις μπορεί να εκτιμούν τη δυνατότητα, για παράδειγμα, να χρησιμοποιούν drones με τεχνητή νοημοσύνη για να εντοπίζουν, να βρίσκουν και να σκοτώνουν αυτόνομα εχθρικούς μαχητές. Ωστόσο, το διεθνές ανθρωπιστικό δίκαιο απαιτεί τα όπλα αυτά να μπορούν να διακρίνουν μεταξύ στρατιωτικών και πολιτικών στόχων. Τα πλήρως αυτόνομα όπλα με τεχνητή νοημοσύνη χωρίς ανθρώπινη εποπτεία δεν είναι επί του παρόντος αξιόπιστα και δεν συμμορφώνονται με τους διεθνείς νόμους, λέει ο Horowitz.

Οι συμφωνίες με την Anthropic και την OpenAI

Αυτές ακριβώς οι μελλοντικές χρήσεις βρίσκονται στο επίκεντρο της αντιπαράθεσης ανάμεσα στο αμερικανικό υπουργείο Πολέμου (πρώην υπουργείο Άμυνας) και την Anthropic, εταιρείας τεχνητής νοημοσύνης με έδρα το Σαν Φρανσίσκο. Από το 2024, το σύστημα Maven υποστηριζόταν από το μεγάλο γλωσσικό μοντέλο Claude της Anthropic στο πλαίσιο συμβολαίου 200 εκατομμυρίων δολαρίων. Τον περασμένο Ιανουάριο, όμως, το υπουργείο εξέδωσε υπόμνημα σύμφωνα με το οποίο οι συμβάσεις προμήθειας AI για το κράτος θα πρέπει να προβλέπουν ότι τα συστήματα μπορούν να χρησιμοποιούνται «για κάθε νόμιμη χρήση», χωρίς πρόσθετους περιορισμούς.

Η Anthropic αρνήθηκε να αποδεχθεί αυτή τη διατύπωση, υποστηρίζοντας ότι το Claude δεν μπορεί να χρησιμοποιηθεί για μαζική εσωτερική παρακολούθηση ή για την καθοδήγηση πλήρως αυτόνομων οπλικών συστημάτων. Στις 27 Φεβρουαρίου, ο πρόεδρος Ντόναλντ Τραμπ έδωσε εντολή να σταματήσει η χρήση τεχνολογίας της εταιρείας από την ομοσπονδιακή κυβέρνηση. Ο Horowitz περιγράφει την υπόθεση ως μια διαμάχη που ξέσπασε γύρω από θεωρητικές, αλλά απολύτως κρίσιμες, μελλοντικές χρήσεις της AI.

Μετά την απομάκρυνση της Anthropic, η κυβέρνηση των ΗΠΑ προχώρησε σε συμφωνία με την OpenAI, δημιουργό του δημοφιλούς chatbot ChatGPT. Η εταιρεία αναφέρει ότι η σύμβαση ορίζει πως η τεχνολογία της δεν θα χρησιμοποιηθεί ούτε για παρακολούθηση ούτε για την καθοδήγηση πλήρως αυτόνομων όπλων – κάτι που η τρέχουσα τεχνολογία δεν μπορεί να κάνει με αξιοπιστία, όπως επισημαίνει. Ωστόσο, το τοπίο παραμένει ρευστό, καθώς στις 5 Μαρτίου αναφέρθηκε ότι ο επικεφαλής της Anthropic, Dario Amodei, έχει επιστρέψει σε συνομιλίες με το υπουργείο.

Ανησυχίες εργαζομένων και ειδικών

Οι ερευνητές στον τομέα αυτό έχουν εκφράσει βαθιά ανησυχία για πιθανές αρνητικές και ανήθικες χρήσεις της τεχνητής νοημοσύνης. Εργαζόμενοι στην Google και την OpenAI κυκλοφορούν επιστολή ζητώντας από τις διοικήσεις να μην επιτρέψουν τη χρήση των μοντέλων τους για μαζική εσωτερική παρακολούθηση ή για αυτόνομη θανάτωση ανθρώπων χωρίς ανθρώπινο έλεγχο.

Παράλληλα, η πολιτική επιστήμονας Toni Erskine του Αυστραλιανού Εθνικού Πανεπιστημίου στην Καμπέρα, ηγήθηκε ερευνητικού έργου που εξέτασε τις μελλοντικές χρήσεις της AI στον πόλεμο και κατέληξε σε προτάσεις πολιτικής. Η έκθεση υπογραμμίζει όχι μόνο τα γνωστά προβλήματα μεροληψίας και αδιαφάνειας των μεγάλων γλωσσικών μοντέλων, αλλά και τον κίνδυνο η αντικατάσταση της ανθρώπινης κρίσης με τεχνητή νοημοσύνη να οδηγήσει από λάθος σε κλιμάκωση συγκρούσεων. «Τα πλήρως αυτόνομα οπλικά συστήματα χωρίς ανθρώπινη παρέμβαση είναι ηθικά απαράδεκτα και πρέπει να απαγορευτούν διεθνώς», αναφέρει, ενώ τα μη αυτόνομα συστήματα ενέχουν επίσης κινδύνους και απαιτούν ρύθμιση.

Γιατί είναι δύσκολη η ρύθμιση

Πολλές προσπάθειες βρίσκονται σε εξέλιξη για την επίτευξη διεθνούς συμφωνίας σχετικά με τις νομικές ή ηθικές χρήσεις της τεχνητής νοημοσύνης στον πόλεμο, ωστόσο παρεμποδίζονται από την έλλειψη συμμετοχής των κύριων παραγόντων, σύμφωνα με τον Jones:

«Τα κράτη με ενεργά προγράμματα τεχνητής νοημοσύνης στον πόλεμο, συμπεριλαμβανομένων των ΗΠΑ, του Ισραήλ και της Κίνας, είναι γενικά αντίθετα σε περαιτέρω ρύθμιση».

Πιο συγκεκριμένοι κανόνες ίσως προκύψουν από τη Σύμβαση για Ορισμένα Συμβατικά Όπλα (CCW). Στην πρόσφατη συνάντηση εμπειρογνωμόνων της CCW στη Γευνεύη συζητήθηκε η έκθεση του Διεθνούς Ινστιτούτου Ερευνών για την Ειρήνη της Στοκχόλμης, η οποία δημοσιεύτηκε τον περασμένο μήνα και τονίζει ότι το στάδιο της ανάθεσης συμβολαίων είναι κρίσιμο για να ορίζονται εξαρχής «αρχές υπεύθυνης συμπεριφοράς».

Όλες οι προσπάθειες, πάντως, παρεμποδίζονται από τις δυσκολίες στον ορισμό με σαφήνεια του τι ακριβώς συνιστά ένα πλήρως αυτόνομο φονικό σύστημα με AI και πού αρχίζει ή τελειώνει η χρήση τεχνητής νοημοσύνης μέσα σε στρατιωτικά υπολογιστικά συστήματα, των οποίων πλέον αποτελεί αναπόσπαστο μέρος. «Είναι πολύ, πολύ, πολύ, πολύ περίπλοκο», λέει ο Herbert Lin, ειδικός σε θέματα κυβερνοασφάλειας στο Πανεπιστήμιο Στάνφορντ των ΗΠΑ, ο οποίος πιστεύει ότι ο κόσμος δεν βρίσκεται «ούτε κατά διάνοια» κοντά σε μια επίσημη συμφωνία για τη νόμιμη χρήση της τεχνητής νοημοσύνης στον πόλεμο.



Πηγή