All’armi, l’IA va alla guerra

Text with image

Each element can be added and moved around within any page effortlessly. All the features you need are just one click away.

Reading Time: 12 minutes

L’intelligenza artificiale nella progettazione delle armi: stato dell’arte e prospettive future. Sarà possibile coniugare sicurezza e principi etici?

L’intelligenza artificiale (IA) sta rivoluzionando il modo in cui vengono sviluppati e utilizzati i sistemi d’arma. Droni autonomi, sistemi di difesa aerea intelligenti e armamenti in grado di identificare bersagli senza intervento umano non sono più fantascienza, ma realtà emergente nelle linee di produzione e, conseguentemente, sui campi di battaglia.

Armi autonome e droni militari

Le armi autonome, ossi i sistemi in grado di operare e ingaggiare bersagli con minima o nessuna supervisione umana, rappresentano una delle evoluzioni più significative. Nell’ultimo anno, ad esempio, Lockheed Martin ha effettuato un test rivoluzionario su un lanciarazzi HIMARS: il veicolo ha guidato, puntato e lanciato razzi in modo completamente autonomo, senza alcun intervento umano. Questa dimostrazione, avvenuta a fine 2024, segna una pietra miliare nell’integrazione dell’IA nei sistemi d’arma tradizionali e mostra come la riduzione del personale sul campo possa andare di pari passo con maggiore flessibilità operativa. Allo stesso tempo, l’IA viene impiegata persino come “pilota”: negli USA, un algoritmo ha pilotato un caccia F-16 modificato per 17 ore consecutive già a fine 2022, anticipando lo sviluppo di caccia di sesta generazione in cui l’IA avrà un ruolo di comando a bordo.

Anche i droni armati e gli sciami autonomi sono un fronte di rapido sviluppo. Nel 2025 l’Aeronautica statunitense ha avviato i test a terra dei primi prototipi di “loyal wingman”, si tratta di droni da combattimento collaborativi, da affiancare ai caccia pilotati: curiosamente, i modelli iniziali YFQ-42 e YFQ-44 non provengono dai giganti tradizionali, i soliti Lockheed, Boeing o Northrop, ma da aziende tech emergenti come General Atomics e Anduril Industries. Ciò riflette come l’IA e la robotica stiano ridisegnando gli equilibri industriali nel settore Difesa, aprendo spazio a nuovi attori. In Cina, parallelamente, l’industria bellica di Stato corre nella stessa direzione: ad esempio, Norinco ha presentato nel 2025 un veicolo blindato P60 capace di condurre operazioni di supporto in completa autonomia fino a 50 km/h, grazie al potente modello di IA cinese DeepSeek. L’impiego di sciami di droni dotati di IA per tracciare bersagli e persino di “cani robot” per ricognizioni pericolose non è più solo materia da romanzi, ma compare in appalti e brevetti militari cinesi dell’ultimo anno. Sia Washington che Pechino, infatti, spingono i rispettivi eserciti a prepararsi ad un possibile conflitto high-tech, generando un’autentica corsa agli armamenti IA.

Sistemi di difesa aerea e di targeting intelligenti

L’IA sta potenziando anche i sistemi di difesa aerea e di puntamento (targeting). Un caso emblematico recente viene da Leonardo DRS, braccio USA dell’italiana Leonardo, che nell’agosto 2025 ha testato con successo un sistema autonomo di difesa anti-drone marittima. Questo modulo, installato su un drone navale di superficie (USV), integra sensori multipli e un nucleo di sensor fusion basato su algoritmi di machine learning per rilevare, identificare e tracciare minacce aeree in tempo reale. Durante le prove in mare aperto, la piattaforma ha dimostrato di poter eseguire l’intera kill chain contro droni bersaglio, dalla scoperta iniziale alla neutralizzazione, senza intervento umano diretto. Tecnologie simili permettono di distinguere rapidamente un UAV commerciale innocuo da un missile o un drone ostile, e di coordinare la risposta adeguata, ad esempio disturbi elettronici, inganno GPS o ingaggio cinetico, in frazioni di secondo.

Anche nel campo dei sistemi di puntamento avanzati, l’IA sta facendo passi da gigante. La multinazionale europea MBDA, partecipata anche da Leonardo, ha svelato di recente il progetto Orchestrike: si tratta di un’innovazione che abiliterà i missili da crociera SPEAR a cooperare in sciame grazie all’IA, coordinandosi tra loro e con il pilota lanciatore per colpire bersagli in modo più efficace. Ancora più tangibile è Ground Warden, un modulo IA che MBDA ha presentato a giugno 2024: questo sistema consente di “vedere” bersagli nascosti dietro ostacoli sfruttando la collaborazione tra sensori diversi. In una dimostrazione, il primo missile lanciato verso un bersaglio nascosto inviava immagini video al modulo Ground Warden; immediatamente l’IA analizzava la scena e guidava un secondo missile sul nemico non visibile, ottimizzando l’ingaggio. In un altro scenario, un drone ricognitivo ha fornito dall’alto una panoramica di un’area boschiva, i cui dati, elaborati dall’IA, indicavano al tiratore dove e quando colpire un carro armato occultato. Queste capacità di targeting intelligente promettono un grande vantaggio: ingaggiare minacce dietro copertura o di piccole dimensioni, come i droni, con maggiore rapidità e precisione rispetto ai sistemi tradizionali.

Principali aziende costruttrici e ultime novità, inclusa l’Italia

Negli ultimi 12-18 mesi, molte aziende della difesa hanno annunciato progetti basati su IA integrati nei propri armamenti. Ma chi sono i principali attori e quali le loro novità recenti?

Inziiamo dalla Lockheed Martin (USA): oltre al lanciarazzi autonomo citato, Lockheed sta investendo nell’autonomia di sistemi aerei e terrestri. Ha sperimentato con DARPA algoritmi di dogfighting autonomo per caccia senza pilota e promuove il concetto di “teaming” tra sistemi con e senza pilota. Un dirigente di Lockheed ha dichiarato che alcune tecnologie autonome potrebbero essere operative “nel giro di mesi, non anni”, sottolineando però la necessità di aggiornare le politiche e di mantenere un umano nel loop per le decisioni critiche. L’azienda ha già fatto volare elicotteri Black Hawk e caccia F-16 sotto controllo IA, segno che sta maturando la fiducia verso sistemi d’arma sempre più indipendenti. Le società RTX (Raytheon) & Northrop Grumman (USA), colossi statunitensi, continuano a integrare IA nei missili e nei radar. Ad esempio, Raytheon Missiles & Defense ha lavorato su algoritmi per migliorare l’identificazione dei bersagli nei sistemi di difesa aerea Patriot e NASAMS, mentre Northrop ha investito in tecnologie per il command & control automatizzato e il riconoscimento di target tramite immagini satellitari. Anceh se le informazioni specifiche su progetti 2024-2025 di queste aziende sono emerse meno pubblicamente, entrambe figurano tra i principali appaltatori in programmi di “armi intelligenti” del Pentagono. L’Anduril Industries (USA), giovane azienda tech fondata nel 2017, è diventata un simbolo della nuova ondata di difesa hi-tech. Nel 2024 è entrata per la prima volta nella Top100 mondiale della difesa grazie a contratti per droni autonomi e sistemi software di comando avanzati. Anduril ha sviluppato droni “attritable”, a basso costo e quindi sacrificabili in massa, e un sistema operativo chiamato Lattice che utilizza IA per fondere i dati di sensori e gestire combattimenti multi-dominio. L’US Air Force le ha affidato uno dei primi prototipi di drone wingman (YFQ-44), e la società fornisce anche loitering munitions (droni kamikaze) a Taiwan e droni sottomarini autonomi per la sorveglianza marittima. Il presidente di Anduril, Matt Steckman, ha affermato che sul campo moderno “servono capacità computazionali immense, guidate dai progressi in IA, autonomia e comando senza equipaggio”, unico modo per affrontare lo scenario di conflitti futuri. Come indicato, l’indistria manufatturiera di armi nazionale non è da meno. Leonardo, la maggiore azienda italiana della difesa, sta puntando sull’IA in vari ambiti. Oltre al progetto navale anti-drone con DRS già citato, Leonardo è coinvolta nel programma del caccia di sesta generazione GCAP (Global Combat Air Program, con Regno Unito e Giappone), dove l’IA giocherà un ruolo chiave nei sistemi di missione e nel controllo di droni gregari. Sul fronte unmanned, Leonardo ha organizzato contest su droni autonomi (Drone Contest) e, al salone MSPO 2024 in Polonia, ha firmato un importante accordo con la polacca WB Group per sviluppare congiuntamente droni tattici con capacità AI, sciami e munizioni vaganti di nuova generazione. L’intesa mira a creare UAS tattici “attritibili” (a basso costo e dispiegabili in gran numero), in grado di operare in sciame e di svolgere ricognizione e attacco anche in ambienti con GPS disturbato o forte guerra elettronica. Questa collaborazione evidenzia la volontà di Leonardo di restare all’avanguardia nelle tecnologie autonome e di intelligence artificiale, lavorando a soluzioni che offrano “massa accessibile” di sistemi e maggiore consapevolezza situazionale sul campo. La MBDA, azienda europea con presenza in Italia, sta integrando l’IA nei sistemi d’arma guidati. Il loro strumento Ground Warden e il progetto Orchestrike faranno dei missili e anti-carro e da crociera europei tra i primi “intelligenti”, capaci di condividere informazioni tra loro e con altri asset per stanare bersagli nascosti e saturare difese nemiche. MBDA ha anche aggiornato il missile anti-aereo Mistral 3 per affrontare micro-droni a firma infrarossa debolissima, segno che l’IA viene usata anche per migliorare i sensori dei missili a corto raggio. Al di fuori dei confini europei ci sono altre realtà che hanno integrato l’IA nella componente logica dei sistemi bellici da loro prodotti. In Israele, aziende come Israel Aerospace Industries (IAI) e Rafael integrano da anni funzioni autonome nei droni e nei sistemi anti-missile. La loitering munition HAROP di IAI, ad esempio, può vagare autonomamente su un’area in cerca di radar da distruggere. Start-up come ThirdEye Systems sviluppano soluzioni IA per il rilevamento di droni che hanno attirato investimenti anche dagli Emirati Arabi, mentre Elbit Systems ha schierato torrette autonome e mini-droni con riconoscimento del bersaglio. In Cina, oltre a Norinco, colossi come CASC e CASIC stanno presentando droni avanzati, ad esempio il drone stealth Sharp Sword o sciami lanciati da veicoli, e integrando IA nei missili balistici e da crociera per renderli più imprevedibili. Anche la russa Kalashnikov ha testato prototipi di torrette robotiche (Kalashnikov BAS-01G Soratnik, Uran-9 UGV) con gradi limitati di autonomia, sebbene la tecnologia russa sembri più indietro rispetto a USA e Cina.

Collaborazioni governo-industria e strategia militare

Molte di queste innovazioni nascono da una stretta collaborazione tra aziende e governi, spesso in programmi strategici mirati. Negli Stati Uniti, il Dipartimento della Difesa ha lanciato nel 2023 l’iniziativa “Replicator”, con l’obiettivo dichiarato di schierare migliaia di droni autonomi entro il 2025 per compensare la superiorità numerica cinese. Questo programma, fortemente voluto dall’ex vice segretario alla Difesa Kathleen Hicks, mira ad acquisire rapidamente piccoli droni “smart” a basso costo da aziende innovative, scavalcando i lunghi cicli di acquisizione tradizionali. Sia repubblicani che democratici hanno appoggiato la logica di Replicator, riconoscendo che per competere con la Cina occorre accelerare lo sviluppo di armi all’avanguardia e comprarne in grande quantità. Tuttavia, resta da vedere se l’impegno proseguirà con la stessa intensità oltre il cambio di amministrazione, dato che Hicks (promotrice del programma) ha lasciato l’incarico nel 2025.

Anche la Cina sta investendo enormemente nell’IA militare in un’ottica strategica nazionale. L’uso estensivo di modelli IA domestici come DeepSeek nei progetti PLA indica la volontà di Pechino di raggiungere la “sovranità algoritmica” e ridurre la dipendenza da tecnologia occidentale. Non a caso, negli ultimi anni i ricercatori cinesi hanno mostrato prototipi di centri comando immersivi in realtà virtuale, sistemi di supporto decisionale capaci di valutare migliaia di scenari tattici in pochi secondi, e sciami di robot terrestri/canini per operazioni in ambienti urbanizzati. Documenti ufficiali affermano che tali sforzi mirano a “colmare il gap” con gli USA, segnalando una vera e propria gara agli armamenti basati sull’IA a livello globale.

In Europa, l’approccio è più prudente ma in netta evoluzione. L’UE ha finanziato progetti di ricerca sulla difesa con IA, ad esempio nel programma EDF – European Defence Fund, e diversi Paesi collaborano su piattaforme future condivise: il già citato caccia GCAP (UK-Italia-Giappone) e il programma FCAS/SCAF (Francia-Germania-Spagna) promettono di includere “assistenti virtuali” ai piloti e droni gregari controllati da AI. Governi come la Francia e il Regno Unito investono in start-up nazionali di settore (es. francese Thales su AI per analisi di immagini satellitari militari, o britannica QinetiQ su veicoli autonomi) per non restare indietro. L’Italia, da parte sua, ha varato nel 2022 una Strategia Nazionale per l’IA che include applicazioni in campo difesa, e tramite Leonardo e altre aziende partecipa a svariati consorzi europei su queste tecnologie emergenti.

Aspetti etici e normativi

L’impiego crescente di IA negli armamenti solleva interrogativi etici profondi. Chi è responsabile se un’arma autonoma dovesse commettere un errore letale? È moralmente accettabile delegare a un algoritmo la decisione di premere il grilletto? Queste domande animano da oltre un decennio il dibattito internazionale sulle LAWS (Lethal Autonomous Weapon Systems, o sistemi d’arma letali autonomi). In sede ONU, la Convenzione sulle Armi Convenzionali (CCW) discute dal 2014 possibili misure, ma senza accordi vincolanti finora. Un blocco crescente di Paesi, tra cui diversi stati in via di sviluppo e potenze medie, chiede un trattato internazionale che proibisca le armi “oltre il controllo umano significativo”. Nel febbraio 2023 è stata diffusa la Dichiarazione di Belém guidata dalla Costa Rica, che propone una regolamentazione con divieti specifici su sistemi totalmente autonomi fuori dal controllo umano. Dall’altro lato, potenze come gli USA e la Russia si oppongono a bandi rigidi. Washington ha promosso una Dichiarazione Politica sulla Responsible AI in ambito militare basata su principi volontari e migliori pratiche. Anche l’Italia e gli altri Paesi NATO sostengono in genere l’idea di mantenere sempre un “controllo umano significativo” sulle azioni letali, ma preferiscono linee guida non vincolanti piuttosto che divieti assoluti, temendo di limitare l’innovazione tecnologica difensiva.

Intanto, numerose voci della società civile insistono sul pericolo dei “killer robot”. ONG come Human Rights Watch, con la campagna Stop Killer Robots, avvertono che l’assenza di una chiara responsabilità potrebbe portare a violazioni del diritto umanitario senza colpevoli. Esperti militari e scienziati etici sottolineano anche il rischio di escalation accidentali: un’IA potrebbe reagire in modo imprevedibile a scenari complessi, sfuggendo al controllo umano e innescando conflitti più ampi. Lo studioso Paul Scharre ha osservato che inserire IA sempre più complesse nei processi decisionali bellici significa introdurre “sistemi che pensano in modo alieno all’intelligenza umana” e che senza adeguate salvaguardie, i comandanti potrebbero perdere il controllo del campo di battaglia. Questo monito evidenzia la necessità di imporre limiti chiari: per esempio, potrebbe rendersi necessario vietare almeno le armi che selezionano e ingaggiano bersagli interamente da sole, senza possibilità di intervento umano in tempi utili.

Alcuni passi avanti a livello normativo si stanno facendo: diverse nazioni appartenenti alla NATO, Italia inclusa, hanno adottato linee guida etiche per l’uso dell’IA militare, ispirate ai principi di necessità, proporzionalità, trasparenza e responsabilità. Il Dipartimento della Difesa USA già dal 2012 ha una direttiva, la 3000.09, che richiede l’obbligo di sufficiente controllo umano sulle armi autonome letali. Tuttavia, l’accelerazione tecnologica pone pressione sui legislatori: senza un accordo globale, c’è il timore che si instauri una pericolosa corsa senza regole, in cui la velocità conta più della cautela. In un contesto geopolitico teso, vedi Ucraina, Taiwan, Medio Oriente, l’assenza di regole chiare per l’IA bellica potrebbe portare a incidenti o usi indiscriminati che renderebbero ancora più instabile lo scenario internazionale.

Implicazioni geopolitiche

L’IA applicata agli armamenti sta diventando un fattore determinante nei rapporti di forza globali, configurando una vera “AI arms race”, la corsa agli armamenti intelligenti. Stati Uniti e Cina guidano questo duello. Entrambi hanno investimenti colossali, nel 2021 gli USA avevano già 685 programmi militari legati all’IA noti e un budget di 1,8 miliardi $ per l’IA nella difesa 2024, mentre la Cina non divulga cifre ma gli analisti parlano di decine di miliardi di dollari investiti in AI militare. Washington teme di essere superata dal volume di produzione cinese, la quale può sfornare navi, missili e droni a ritmi industriali, e punta sull’IA per mantenere il vantaggio qualitativo. Pechino dal canto suo vede nell’IA l’opportunità di colmare il gap tecnologico, tanto che l’integrazione di IA nelle forze armate è esplicitamente incoraggiata dalla dottrina PLA come “faro” per la modernizzazione entro il 2035.

Questa competizione hi-tech non si limita a USA e Cina. Russia, pur frenata economicamente, sperimenta IA principalmente in ambito missilistico (ad esempio, per migliorare la capacità di penetrazione dei missili ipersonici o per l’analisi automatica delle informazioni di bersaglio) e nella robotica terrestre. India e Pakistan avviano programmi di droni armati autonomi, aggiungendo un tassello di instabilità in Asia meridionale. Israele si è affermato come esportatore di tecnologie autonome avanzate (dai famosi droni Harop ai sistemi anti-razzo con algoritmi predittivi). Anche potenze medie come Turchia, leader nei droni armati come Bayraktar e Kargu-2 a riconoscimento facciale, e attori più piccoli iniziano a sviluppare o acquistare armi con componenti di IA, abbassando la soglia di ingresso a capacità militari una volta appannaggio solo dei grandi eserciti.

Tutto ciò ha implicazioni geopolitiche importanti. Da un lato, l’accesso all’IA militare diventa un elemento di influenza: paesi che dispongono di droni avanzati e sistemi autonomi possono proiettare potenza o difendersi meglio, alterando equilibri regionali, si pensi all’Azerbaigian che con i droni turchi ha avuto il sopravvento sull’Armenia nel 2020. Dall’altro lato, cresce il rischio di proliferazione incontrollata: algoritmi di visione artificiale o di navigazione autonoma possono diffondersi anche a gruppi non statali. Uno scenario temuto è quello di terroristi o milizie che impiegano droni armati dotati di riconoscimento target per attentati mirati, o stormi di piccoli UAV low-cost per sopraffare difese convenzionali.

Inoltre, l’IA in ambito militare accentua la sfida tra blocchi politico-economici: chi controlla i semiconduttori avanzati e la computazione su larga scala necessaria per addestrare modelli di IA ha un vantaggio strategico. Ecco perché assistiamo a restrizioni sulle export technology, ad esempio i chip NVIDIA A100/H100 bloccati alla Cina, e a un movimento verso l’auto-sufficienza tecnologica tanto che la Cina insiste sull’uso di chip Huawei e locali per fini militari. Anche tra alleati emergono questioni. Ad esempio l’Europa vorrebbe ridurre la dipendenza da IA statunitense in ambito difesa, sviluppando capacità sovrane; i paesi del Sud del mondo guardano con preoccupazione a una possibile “spaccatura digitale” che li escluda da queste tecnologie, o che le porti nei propri conflitti senza regolamentazione. In sintesi, l’IA sta diventando un nuovo terreno su cui si misura la potenza geopolitica, al pari del nucleare nel XX secolo, spingendo verso nuove alleanze, come quella recente tra Emirati Arabi e Israele sul contrasto ai droni, e rivalità accese.

Possibilità future

Guardando al futuro prossimo, le possibilità offerte dall’intelligenza artificiale nel campo militare sono sia entusiasmanti sia inquietanti. Sul piano tecnologico, possiamo aspettarci sistemi sempre più autonomi: droni aerei, terrestri e navali operanti in sciami coordinati, capaci di suddividersi i compiti (ricognizione, disturbo, attacco) in maniera dinamica. Già oggi sperimentiamo droni che volano in formazione con caccia pilotati, ma domani potremmo vedere intere unità robotiche agire con una supervisione umana minima. Ma anche armi più precise e veloci: l’IA promette di accorciare drasticamente i tempi tra individuazione del nemico e decisione d’ingaggio. Esperimenti dell’Aeronautica USA hanno mostrato che l’IA può generare piani di attacco 400 volte più velocemente di uno staff umano, in pochi secondi invece che in minuti. Ciò significa che difese e contromisure dovranno reagire a ritmi prima impensabili, forse delegando a loro volta all’IA funzioni di response immediata. Aspetto in evoluzione è quello della integrazione uomo-macchina: lungi dall’eliminare il fattore umano, le forze armate cercheranno di aumentarlo grazie all’IA. Si parla di soldati con realtà aumentata che ricevono dall’IA indicazioni tattiche in tempo reale, comandanti supportati da assistenti virtuali che filtrano l’enorme mole di dati di campo, fog of war mitigata dall’analisi automatica. I piloti di domani avranno al fianco droni gregari e algoritmi che suggeriscono manovre o addirittura prendono il controllo in situazioni di emergenza.

Sul piano strategico, l’IA potrebbe anche cambiare la natura stessa della deterrenza e del conflitto. Alcuni analisti immaginano che eserciti semi-robotizzati renderanno certe guerre “più accettabili” per l’opinione pubblica interna, in quanto producono meno perdite umane abbassando la soglia dell’uso della forza, ma questo è, in realtà, un aspetto preoccupante. Altri pensano che una AI superiore potrebbe funzionare da “scudo” difensivo impenetrabile (ad esempio reti di droni intercettori e laser anti-missile guidati da IA, capaci di fermare attacchi massicci), creando un equilibrio di potere basato sulla tecnologia più che sul numero di testate o truppe. In ogni caso, siamo all’alba di un’epoca in cui le “armi intelligenti” saranno parte integrante degli arsenali mondiali.

È inevitabile che l’uso dell’intelligenza artificiale nella progettazione e impiego delle armi stia già trasformando il volto della difesa e continuerà a farlo in modo accelerato. Dalle grandi potenze alle aziende emergenti, è in atto una corsa per sfruttare al meglio le potenzialità dell’IA, sia che si tratti di droni autonomi, sistemi di difesa aerea in grado di pensare o missili che cooperano tra loro. Le possibilità future vanno da scenari quasi fantascientifici di guerre condotte da eserciti di robot a sistemi difensivi automatizzati che potrebbero salvare vite disinnescando minacce senza intervento umano. Ma accanto a queste opportunità vi sono sfide enormi: etiche, perché delegare decisioni di vita o di morte a una macchina pone dilemmi senza precedenti; giuridiche, perché il diritto internazionale umanitario dovrà adattarsi o evolvere; e strategiche, perché l’IA potrebbe sconvolgere gli equilibri di potere e la stabilità globale.

Come un moderno Giano bifronte, l’IA applicata agli armamenti mostra un volto promettente – efficienza, precisione, protezione dei soldati – e uno oscuro, fatto di rischi e incognite. Sarà compito della comunità internazionale, dei governi e anche dell’opinione pubblica vigilare affinché l’innovazione responsabile guidi questa rivoluzione, stabilendo regole d’ingaggio e limiti all’autonomia letale prima che “l’occasione di regolamentare le armi assistite da IA svanisca”. L’orizzonte che ci attende nei prossimi anni dipenderà dalle scelte di oggi: l’auspicio è che si riesca a coniugare sicurezza e principi etici, evitando che la corsa alla supremazia tecnologica ci conduca su una strada pericolosa senza possibilità di ritorno.

Roberto Greco

Ultimi Articoli