La vera rivoluzione tecno-militare dietro la falsa simulazione del drone killer “ribelle”
Oltre lo storytelling della simulazione di affidabilità dell’intelligenza artificiale, riferito dal colonnello Hamilton dell’areonautica statunitense al vertice londinese Future Air Combat
L’AVVENTO DEI SISTEMI D’ARMA AUTONOMI
Le tecnologie disruptive non sono certamente solo di uso civile. Molte sono di uso duale, cioè misto civile e militare, altre unicamente militari. Con i droni killer entriamo nel capitolo dei sistemi d’arma autonomi, che operano senza alcun coinvolgimento umano nella selezione degli obiettivi. Con l’avvento di mezzi robotici terrestri, navali e aerei autonomi, si entra in quella che negli affari militari è considerata una rivoluzione alla pari di quelle determinate dall’introduzione nei conflitti della polvere da sparo e della tecnologia atomica.
COSA È IN GIOCO
Il punto è che questo apre una fase del tutto nuova per la storia umana in generale. I temi che si dibattono sono due: se l’intelligenza artificiale possa nuocere agli esseri umani, e se i sistemi d’arma robotici siano una minaccia tale da dover chiedere una moratoria allo sviluppo e implementazione di tali tecnologie.
Sgombriamo il campo dalle percezioni mutuate dall’immaginario strettamente fantascientifico: non parliamo di intelligenza artificiale generale senziente autocosciente, ma di machine learning applicato a sistemi d'arma. E i droni militari non sono androidi umanoidi, sebbene Boston Dynamics abbia già creato cani robotici per l’esercito, robot simili a insetti e rozzamente antropomorfi, che potrebbero prestarsi a integrare piccole armi.
I droni di cui ci si preoccupa sono mezzi in tutto simili a elicotteri e aerei, carri armati, motoscafi, navi e sottomarini: tutti caratterizzati dal fatto di essere autonomi. Il vantaggio perseguito dalla forza militare che le dispiega dovrebbe consistere in migliorie prestazionali, come maggiore velocità o precisione, e minori o nulle perdite umane.
CRITICITÀ
Esiste un prezzo che sembra essere stato largamente sottostimato: sistemi d’arma autonomi non hanno flessibilità nelle regole d’ingaggio, cioè per la selezione e identificazione di obiettivi da colpire e per il dosaggio della forza letale.
Un drone killer non ha intelligenza, né umana nè macchinica. Ha solo algoritmi privi della sensibilità per discriminare obbiettivi con criteri sfumati: civili e militari, chi porta armi in contesti di difesa lecita e chi è un criminale. Non ci sarà più un operatore umano da remoto a teleguidare un drone. Resterà l’arbitrio freddo della macchina. Molti esperti, sia tecnologi sia militari, ritengono che la glaciale ottusità delle armi robotiche costituisca un pericolo.
I nomi come “Neuron”, dato all’aereo robotico senza equipaggio dell’areonautica militare francese, traggono perciò in inganno. Nei droni da guerra che solcheranno i cieli non c’è un cervello con neuroni, magari con circuiti neurali artificiali: il nome di reti neurali dato ai cluster delle intelligenze artificiale sono metafore. Del resto anche "Intelligenza artificiale" è più che altro una locuzione giornalistica che ma trae in inganno: gli algoritmi non hanno autocoscienza, a differenza di quanto suppongono coloro che la deducono da repliche di ragionamento discorsivo generato da prompt e basi dati. E non avere intelligenza ma solo algoritmi nudi e ottusi a decidere se sparare da un tank, bombardare dal cielo, lanciare missili o siluri dal mare, apre scenari potenzialmente distopici.
RISCHI
Cessa del tutto quel residuo di umanità che si è potuto faticosamente mantenere nei teatri di guerra gestiti da ufficiali umani. Le macchine da guerra autonome avranno una assoluta assenza di empatia e difficilmente rispetteranno convenzioni scritte e non scritte o il diritto di guerra, introdotti per evitare il mero massacro senza alcun limite. Niente prigionieri tra i militari. Civili coinvolti sempre più pesantemente.
C’è inoltre il rischio di avere una sempre maggiore propensione a saltare le fasi della diplomazia nei contrasti tra potenze, adottando quasi di default l’opzione dell’intervento militare, se dovesse diventare, grazie ai sistemi d’arma autonomi, sempre meno costoso in termini economici e di perdite umane della propria parte.
Una prima questione mette in gioco l’eticità: affidare a una tecnologia bellica gestita da algoritmi la decisione su vita e morte di esseri umani, siano essi militari o civili, diminuisce il valore della vita umana, lasciandola all’arbitrio di una macchina. Può apparire astrazione solo se non si vive in teatri bellici e si dà per scontato di non esservi mai coinvolti. Ma i droni killer potrebbero essere presto in dotazione anche a forze di polizia, nel primo mondo. Il problema riguarda tutti.
Ma soprattutto, lo sviluppo delle armi autonome andrà a drenare risorse da attività civili ed economiche sane, dirottandole verso le ultime tecnologie belliche, determinando anche, come ogni corsa agli armamenti, un’innalzamento della conflittualità internazionale, perchè l’insicurezza percepita dai vari attori statali coinvolti classicamente aumenta il rischio di guerra.
Ma c’è un altro aspetto: diminuendo i costi, i sistemi d’arma autonomi potrebbero essere copiati e rubati e riprodotti anche da attori non statali, aumentando molto la letalità del terrorismo e la distruttività delle milizie di signori della guerra che si valgano di droni e simili.
SOLUZIONI
In conclusione, sembrerebbe opportuno stabilire un quadro normativo internazionale per lo sviluppo delle tecnologie militari autonome. Adottando in sede ONU una regolamentazione per l'impiego di armi che operano senza controllo umano.
Esiste anche una campagna a riguardo, la "Campaign to Stop Killer Robots" composta da numerose organizzazioni non governative distribuite in oltre 65 nazioni. Sembra difficile che possa impedire l’avvento di tecnologie belliche reputate vitali dai due sfidanti sull’Indopacifico. Ma potrebbe generare una spinta pubblica utile al varo di regole del (pericoloso) gioco, prima che sfugga di mano.
Devi accedere per poter commentare.