Νέες αποκαλύψεις για την πολεμική μηχανή του Ισραήλ έρχονται στο φως της δημοσιότητας. Ο ισραηλινός στρατός χρησιμοποιεί μια μυστική τεχνολογία τεχνητής νοημοσύνης για να «ταυτοποιεί» και να εξοντώνει στόχους στις επιχειρήσεις του στη Λωρίδας της Γάζας.
Οι «παράπλευρες απώλειες» αμάχων επιτρέπονται με μια τρομακτική αναλογία αμάχων και μαχητών της Χαμάς. Πάνω από 32.000 Παλαιστίνιοι στη συντριπτική τους πλειονότητα άμαχοι, γυναίκες παιδιά έχουν σκοτωθεί από τις ισραηλινές βόμβες. «Αυτά συμβαίνουν», δήλωσε κυνικά ο Μπενιαμίν Νετανιάχου, σχολιάζοντας την πρόσφατη επίθεση σε ένα κομβόι της ανθρωπιστικής οργάνωσης World Central Kitchen κατά την οποία σκοτώθηκαν επτά άνθρωποι.
«Λίστες θανάτου» τεχνητής νοημοσύνης – Ένα εργοστάσιο «μαζικών δολοφονιών»
Οι «λίστες θανάτου» διαμορφώνονται από το πρόγραμμα τεχνητής νοημοσύνης που αποκαλείται «Lavender». Η ανθρώπινη παρέμβαση είναι μηδαμινή, και ήδη, σύμφωνα με πληροφορίες του Guardian και της έρευνας του +972magazine, στους έξι μήνες πολέμου έχουν στοχοποιηθεί περίπου 37.000 Παλαιστίνιοι – αλλά και σπίτια αυτών – για αεροπορικές επιδρομές.
Ο ισραηλινός στρατός φαίνεται να αδιαφορεί τόσο για το ποσοστό λάθους του προγράμματος της τεχνητής νοημοσύνης, όσο και για το εάν στο κτίριο που θα βομβαρδιστεί θα βρίσκονται και πολλοί άμαχοι. Στόχος είναι η εκδίκηση και η εξόντωση όποιου θεωρείται «μαχητής της Χαμάς». Πηγές από το εσωτερικό των ισραηλινών υπηρεσιών ασφαλείας ανέφεραν πως οι διοικητές, ιδιαίτερα τους πρώτους μήνες του πολέμου, απαιτούσαν μια συνεχή ροή στόχων. «Μας πίεζαν συνεχώς: “Φέρτε μας περισσότερους στόχους”. Πραγματικά μας φώναζαν. “Πρέπει να γα@@@με τη Χαμάς, ανεξάρτητα από το κόστος. Βομβαρδίστε ό,τι μπορείτε».
Η έρευνα του +972magazine ρίχνει φως στους τρόπους με τους οποίους η τεχνολογία αιχμής τεχνητής νοημοσύνης, σε συνδυασμό με τους ανύπαρκτους κανόνες εμπλοκής του ισραηλινού στρατού στη Γάζα, έχουν οδηγήσει στο θάνατο δεκάδων χιλιάδων αμάχων.
Σε ότι αφορά το πρόγραμμα τεχνητής νοημοσύνης, η ηγεσία του Ισραηλινού στρατού φαίνεται πως έχει δώσει το ελεύθερο στους αξιωματικούς να υιοθετούν τις «λίστες θανάτου» του «Lavender». Το λογισμικό τεχνητής νοημοσύνης, συγκεντρώνοντας δεδομένα από το εκτεταμένο δίκτυο παρακολούθησης του Ισραήλ, βαθμολογεί σε μια κλίμακα από το 1 έως το 100 τους πολίτες της Γάζας σχετικά με την πιθανότητα να είναι μαχητές της Χαμάς.
Στη συνέχεια ο ισραηλινός στρατός εισάγει αυτές τις πληροφορίες σε ένα δεύτερο λογισμικό τεχνητής νοημοσύνης, το Habsora (Ευαγγέλιο), το οποίο εντοπίζει πιθανά σημεία που μπορεί να βρίσκονται τα πρόσωπα τα οποία έχουν έχουν αξιολογηθεί ως πιθανοί μαχητές της Χαμάς. Ακολούθως αναλαμβάνουν οι δυνάμεις του Ισραήλ την εξόντωσή τους, χωρίς να υπολογίζουν ούτε το ενδεχόμενο λάθους, αλλά ούτε και εάν στο κτίριο το οποίο έχει μπει στο στόχαστρο βρίσκονται και άμαχοι. Πρόκειται για ένα «εργοστάσιο μαζικών δολοφονιών»
Αναλογίες θανάτου
Αξιωματικός των μυστικών υπηρεσιών του Ισραήλ υπερασπίστηκε τη χρήση του «Lavender», υπογραμμίζοντας πως η «ψυχρή τεχνητή νοημοσύνη» είναι πιο ασφαλής από έναν αξιωματικό του στρατού, του οποίου οι αποφάσεις του πιθανόν να επηρεάζονται από το συναίσθημα. Ένας άλλος αξιωματικός αμφισβήτησε εάν τελικά ο ρόλος των ανθρώπων στη διαδικασία επιλογής στόχων είναι τόσο σημαντικός. «Η δική μου προστιθέμενη αξία είναι μηδενική, εκτός από τη σφραγίδα για την έγκριση της επίθεσης. Εξοικονομούμε πολύ χρόνο», ήταν ο εξοργιστικός ισχυρισμός του. Μια άλλη πηγή δήλωσε ότι «όταν πρόκειται για ένα κατώτερο μέλος της Χαμάς, δεν θέλεις να επενδύσεις ανθρώπινο δυναμικό και χρόνο σε αυτόν». «Σε καιρό πολέμου δεν υπάρχει αρκετός χρόνος για να ενοχοποιηθεί κάθε στόχος», δήλωσε.
Πηγές που εμπλέκονται στις στρατιωτικές επιχειρήσεις ανέφεραν πως οι Ισραηλινοί αξιωματικοί έχουν επιτρέψει τη δολοφονία μεγάλου αριθμού αμάχων, ιδιαίτερα κατά τους πρώτους μήνες της σύγκρουσης. Δύο πηγές ανέφεραν μάλιστα πως γνωρίζουν συγκεκριμένες επιχειρήσεις στην αρχή του πολέμου που δόθηκε η άδεια να σκοτωθούν 15 ή 20 πολίτες κατά τη διάρκεια αεροπορικών επιδρομών που είχε ως στόχο την εξόντωση μαχητών της Χαμάς.
Τέτοιου είδους επιθέσεις πραγματοποιούνται συνήθως με τα γνωστά μη κατευθυνόμενα βλήματα, τις αποκαλούμενες και «χαζές βόμβες» (ο όρος χρησιμοποιείται για να δείξει την αντίθεση με τις «έξυπνες βόμβες» προηγμένης τεχνολογίας). Ο ισραηλινός στρατός επιλέγει να καταστρέφει ακόμη και ολόκληρα κτίρια, σκοτώνοντας πολλούς αμάχους για να εξοντώσει ένα και μόνο πιθανολογούμενο μέλος της Χαμάς. «Κανείς δεν θέλει να σπαταλήσει ακριβές βόμβες για να εξοντώσει ασήμαντα μέλη. Είναι πολύ μεγάλο το κόστος», είπε μια από τις πηγές.
Εμπειρογνώμονες σημειώνουν πως αυτή η πρακτική από το Ισραήλ εξηγεί και τον τραγικά υψηλό αριθμό νεκρών αμάχων στη Λωρίδα της Γάζας. Όπως αποκάλυψαν πηγές που εμπλέκονται στις ισραηλινές επιχειρήσεις, οι διαδικασίες στόχευσης, ιδιαίτερα στην πρώτη φάση του πολέμου, ήταν «πολύ χαλαρές». «Υπήρχε μια εντελώς ‘’ανεκτική’’ πολιτική σχετικά με τα θύματα των επιχειρήσεων [βομβαρδισμών], που είχε ένα στοιχείο εκδίκησης», είπε μια πηγή.
Σε αυτό το πλαίσιο το περιθώριο λάθους από την τεχνητή νοημοσύνη αλλά και η απώλεια αμάχων ήταν «αποδεκτή». Σύμφωνα με την έρευνα του +972magazine και του Local Call, ο IDF έκρινε ως «επιτρεπτό» να σκοτωθούν περισσότεροι από 100 άμαχοι ώστε να εξοντωθεί ένας υψηλόβαθμος αξιωματούχος της Χαμάς. «Είχαμε έναν υπολογισμό για το πόσοι άμαχοι θα μπορούσαν να σκοτωθούν για έναν διοικητή της ταξιαρχίας, πόσοι άμαχοι για έναν διοικητή τάγματος και ούτω καθεξής», είπε μια πηγή. «Υπήρχαν κανονισμοί, αλλά ήταν απλώς πολύ επιεικείς», πρόσθεσε ένας άλλος, επιβεβαιώνοντας πως «έχουμε σκοτώσει ανθρώπους ως παράπλευρες απώλειες».
Λόγω των διεθνών αντιδράσεων και ανάλογα με τη φάση του πολέμου, υπήρξαν διακυμάνσεις στις «αναλογίες θανάτου». Μια πηγή είπε ότι το όριο των επιτρεπόμενων απωλειών αμάχων «ανεβοκατέβαινε» με την πάροδο του χρόνου. Κατά τη διάρκεια της πρώτης εβδομάδας της σύγκρουσης, ανέφερε μια από τις πηγές, δόθηκε η άδεια να σκοτώνονται έως και 15 άμαχοι για την εξόντωση κατώτερων μαχητών στη Γάζα. Ωστόσο, συχνά οι εκτιμήσεις για την επικείμενη απώλεια αμάχων ήταν ανακριβείς, καθώς δεν μπορούσαν γνωρίζουμε με βεβαιότητα πόσα άτομα βρίσκονταν σε ένα κτίριο. Ένας άλλος αξιωματικός πληροφοριών είπε ότι πιο πρόσφατα στη σύγκρουση, το ποσοστό επιτρεπόμενων «παράπλευρων απωλειών» μειώθηκε ξανά, αλλά λίγο πριν υπήρξε η άδεια να σκοτώνονται έως και «20 μη εμπλεκόμενοι πολίτες» για έναν και μόνο μέλος της Χαμάς, ανεξάρτητα από το βαθμό του.
«Οι φονικοί αλγόριθμοί είναι ήδη εδώ»
Συνολικά έξι αξιωματικοί του Ισραήλ, που συμμετείχαν όλοι στη χρήση του «Lavender», επιβεβαίωσαν τη χρήση της τεχνητής νοημοσύνης στην έρευνα του + 972 Magazine και του εβραϊκού πρακτορείου Local Call, Και οι έξι ανέφεραν ότι το Lavender έχει διαδραματίσει κεντρικό ρόλο στον πόλεμο, μέσω της επεξεργασίας πλήθους δεδομένων για τον γρήγορο εντοπισμό στόχων που «έπρεπε να εξοντωθούν».
«Το εφιαλτικό σενάριο των φονικών αλγορίθμων εκτυλίσσεται ήδη στη Γάζα», υπογράμμισε στο Responsible Statecraft η Brianna Rosen, ανώτερος συνεργάτης της Just Security και του Πανεπιστημίου της Οξφόρδης, η οποία υπηρετούσε στο παρελθόν στο Συμβουλίου Ασφαλείας των ΗΠΑ.
«Εάν υπάρχει λάθος στον υπολογισμό της τεχνητής, τότε ποιον κατηγορούμε για το λάθος;» ήταν το ερώτημα που είχε θέσει πριν από λίγο καιρό ο Tal Mimran, λέκτορας διεθνούς δικαίου στο Εβραϊκό Πανεπιστήμιο της Ιερουσαλήμ και πρώην νομικός σύμβουλος του στρατού. «Μπορείς να εξαφανίσεις μια ολόκληρη οικογένεια με βάση ένα λάθος», ανέφερε, υπογραμμίζοντας πως ανεξάρτητα από την τεχνολογία «υπάρχει ένα σημείο όπου πρέπει να πάρεις μια απόφαση με βάση τις αξίες». Φαίνεται όμως πως και αυτές εκλείπουν από τον Ισραηλινό Στρατό.
«Η χρήση ισχυρών συστημάτων τεχνητής νοημοσύνης από το Ισραήλ στον πόλεμο κατά της Χαμάς εισάγει τον κόσμο σε μια νέα αχαρτογράφητη περιοχή, εγείροντας μια σειρά από νομικά και ηθικά ζητήματα και αναμορφώνοντας τη σχέση μεταξύ στρατιωτικού προσωπικού και μηχανών», σχολιάζει ο Guardian.