CENTRO ALTI STUDI
PER LA DIFESA
CENTRO MILITARE
DI STUDI STRATEGICI
FRANCESCO FLAMMINI
ARTIFICIAL INTELLIGENCE (AI) APPLICATA
AGLI AUTONOMOUS SYSTEMS
AN-SMD-02
Il Centro Militare di Studi Strategici (Ce.Mi.S.S.), costituito nel 1987 e situato presso Palazzo
Salviati a Roma, è diretto da un Generale di Divisione (Direttore), o Ufficiale di grado
equivalente, ed è strutturato su tre Dipartimenti (Relazioni Internazionali - Sociologia Militare
- Scienze, Tecnologia, Economia e Politica industriale) ed un Ufficio Relazioni Esterne e le
attività sono regolate dal Decreto del Ministro della Difesa del 21 dicembre 2012.
Il Ce.Mi.S.S. svolge attività di studio e ricerca a carattere strategico-politico-militare, per le
esigenze del Ministero della Difesa, contribuendo allo sviluppo della cultura e della
conoscenza, a favore della collettività nazionale.
Le attività condotte dal Ce.Mi.S.S. sono dirette allo studio di fenomeni di natura politica,
economica, sociale, culturale, militare e dell'effetto dell’introduzione di nuove tecnologie,
ovvero dei fenomeni che determinano apprezzabili cambiamenti dello scenario di sicurezza.
Il livello di analisi è prioritariamente quello strategico.
Per lo svolgimento delle attività di studio e ricerca, il Ce.Mi.S.S. impegna:
a) di personale militare e civile del Ministero della Difesa, in possesso di idonea esperienza
e qualifica professionale, all’uopo assegnato al Centro, anche mediante distacchi
temporanei, sulla base di quanto disposto annualmente dal Capo di Stato Maggiore dalla
Difesa, d’intesa con il Segretario Generale della difesa/Direttore Nazionale degli
Armamenti per l’impiego del personale civile;
b) collaboratori non appartenenti all’amministrazione pubblica, (selezionati in conformità alle
vigenti disposizioni fra gli esperti di comprovata specializzazione).
Per lo sviluppo della cultura e della conoscenza di temi di interesse della Difesa, il
Ce.Mi.S.S. instaura collaborazioni con le Università, gli istituti o Centri di Ricerca, italiani o
esteri e rende pubblici gli studi di maggiore interesse.
Il Ministro della Difesa, sentiti il Capo di Stato Maggiore dalla Difesa, d’intesa con il
Segretario Generale della difesa/Direttore Nazionale degli Armamenti, per gli argomenti di
rispettivo interesse, emana le direttive in merito alle attività di ricerca strategica, stabilendo
le lenee guida per l’attività di analisi e di collaborazione con le istituzioni omologhe e
definendo i temi di studio da assegnare al Ce.Mi.S.S..
I ricercatori sono lasciati completamente liberi di esprimere il proprio pensiero sugli
argomenti trattati, il contenuto degli studi pubblicati riflette esclusivamente il pensiero dei
singoli autori, e non quello del Ministero della Difesa né delle eventuali Istituzioni militari e/o
civili alle quali i Ricercatori stessi appartengono.
AN-SMD-02
CENTRO ALTI STUDI
PER LA DIFESA
CENTRO MILITARE
DI STUDI STRATEGICI
Francesco Flammini
Artificial intelligence (AI) applicata agli
autonomous systems
Artificial intelligence (AI) applicata agli autonomous systems
NOTA DI SALVAGUARDIA
Quanto contenuto in questo volume riflette esclusivamente il pensiero dell’autore, e non
quello del Ministero della Difesa né delle eventuali Istituzioni militari e/o civili alle quali
l’autore stesso appartiene.
NOTE
Le analisi sono sviluppate utilizzando informazioni disponibili su fonti aperte.
Questo volume è stato curato dal Centro Militare di Studi Strategici
Direttore
CA. Arturo FARAONE
Vice Direttore - Capo Dipartimento Ricerche
Col. c (li.) s.SM Andrea Carrino
Progetto grafico
Massimo Bilotta - Roberto Bagnato
Autore
Francesco Flammini
Stampato dalla tipografia del Centro Alti Studi per la Difesa
Centro Militare di Studi Strategici
Dipartimento Relazioni Internazionali
Palazzo Salviati
Piazza della Rovere, 83 - 00165 – Roma
tel. 06 4691 3205 - fax 06 6879779
e-mail [email protected]
chiusa a novembre 2018
ISBN 978-88-99468-89-7
5
INDICE
Indice delle figure .......................................................................................... 6
Sommario ...................................................................................................... 8
Abstract ........................................................................................................11
Introduzione ..................................................................................................14
Sistemi “smart” e sitemi “autonomi” ..............................................................16
Sistemi “smart” 16
Sistemi autonomi 23
Intelligenza artificiale ....................................................................................26
Information Fusion, sorveglianza e supporto alle decisioni ...........................30
Sistemi software adattativi ............................................................................33
Sistemi cognitivi nel comando e controllo gerarchico decentralizzato ...........37
Sistemi militari e armi autonome: aspetti etici e legali ...................................41
Realtà virtuale e realtà aumentata ................................................................44
Il paradigma dei Digital Twins per sistemi autonomi predittivi .......................47
Applicazioni ..................................................................................................52
Principali problematiche ed implicazioni pratiche ..........................................55
Conclusioni e sviluppi futuri ..........................................................................60
Abbreviazioni ed acronimi .............................................................................62
Bibliografia ....................................................................................................65
NOTA SUL Ce.Mi.S.S. e NOTA SUGLI AUTORI ..........................................69
6
Indice delle figure
Figura 1. Evoluzione dai sistemi biologici ai sistemi bio-digitali, autonomi e simbiotici. . 16
Figura 2. Schema generale di un sistema di controllo, con evidenziate le componenti
“cyber-physical”. 17
Figura 3. Schema di riferimento per il processamento del segnale in un sensore smart.
........................................................................................................................ 20
Figura 4. Esempio di dispositivo MEMS. ........................................................................ 20
Figura 5. Architettura semplificata di una Wireless Sensor Network. ............................. 20
Figura 6. Esempi di analisi video intelligente per rilevamento eventi (sinistra) e
tracciamento (destra). ..................................................................................... 21
Figura 7. Transizione dai sistemi di comando e controllo dotati di sensori e attuatori di tipo
“smart” (sinistra) verso le future generazioni di sistemi autonomi dotati di
intelligenza artificale (destra). ......................................................................... 21
Figura 8. Schema generale di controllo per un sistema autonomo. ............................... 22
Figura 9. Esempi di robot militari di tipo Unmanned Ground Vehicles (UGV). ............... 25
Figura 10. Esempi di Unmanned Aerial Vehicles (UAV). ................................................. 25
Figura 11. Esempi di neurone artificiale (sinistra) e rete neurale artificiale (destra). ........ 28
Figura 12. Esempio classico di rete bayesiana (grafo orientato aciclico) e relative tabelle di
probabilità condizionali tra le variabili aleatorie (rappresentate dai nodi del
grafo). ............................................................................................................. 29
Figura 13. Livelli di fusione delle informazioni tra le sorgenti e gli operatori umani. ......... 31
Figura 14. Livelli di granularità IF: dall’estrazione delle informazioni alla fusione delle
decisioni. ......................................................................................................... 31
Figura 15. Ciclo PDCA applicato all’Information Fusion: osservare, orientarsi, decidere,
agire. ............................................................................................................... 31
Figura 16. Una visione d’insieme del processo di fusione delle informazioni in applicazioni
di sorveglianza intelligente. ............................................................................. 32
Figura 17. Schema di controllo generico per un sistema adattativo. ................................ 35
Figura 18. Modello di un complesso sistema adattativo. .................................................. 35
Figura 19. Strati funzionali di un sistema adattativo a partire dal livello base
(interconnessione) per arrivare a quello apicale (riconfigurazione). ................ 36
Figura 20. Esempi di centri di comando e controllo delle operazioni. .............................. 39
Figura 21. Schema gerarchico di centri di comando e controllo dotati di intelligenza
artificiale e autonomia. .................................................................................... 40
7
Figura 22. Esempio di complessità dei centri di comando e controllo riferita
all’organizzazione distribuita a gerarchica delle forze armate sul territorio
italiano. ........................................................................................................... 40
Figura 23. Esempi di robot militare autonomo SWORDS (sinistra) e nave da guerra
autonoma (destra). ......................................................................................... 43
Figura 24. Realtà virtuale e realtà aumentata per l’addestramento militare. .................... 46
Figura 25. Possibilità di collocazione degli ambienti virtuali per la simulazione dei Digital
Twins. ............................................................................................................. 50
Figura 26. La Internet of Things applicata ai sistemi militari (IoBT, Internet of Battlefield
Things). ........................................................................................................... 51
Figura 27. Esempio di modello UML Activity Diagram applicato alla procedura militare
cosiddetta di “scramble” (semplificata)............................................................ 54
Figura 28. Una vignetta che illustra in modo ironico i rischi dell’applicazione del machine
learning. .......................................................................................................... 59
Figura 29. Il cosiddetto hype cycle per la previsione dei livelli di maturità delle tecnologie
emergenti. ....................................................................................................... 59
Figura 30. “Super soldato” dotato di esoscheletro tecnologico. ....................................... 61
Figura 31. Un prototipo di cane militare robotico.............................................................. 61
Nota: tutte le figure utilizzate nel presente manoscritto sono opera originale dell’autore (figg.
2, 7, 21, 25, 27), oppure riutilizzate da altre pubblicazioni previo ottenimento del necessario
permesso (figg. 13-16, [21]), oppure liberamente utilizzabili in base alla licenza sui diritti
d’autore Creative Commons (fonte: Wikimedia Commons, https://commons.wikimedia.org).
8
Sommario
Lo studio dell’intelligenza artificale applicata ai sistemi autonomi ha suscitato negli
ultimi anni un crescente interesse a livello internazionale e si prevede che tale interesse
continuerà a crescere nei prossimi anni [34]. È un fatto abbastanza noto che in passato
molte tecnologie oggi impiegate in ambito civile abbiano visto la luce, in modo più o meno
secretato, in ambito militare. Si pensi ad esempio all’ARPANET, sviluppata nel dipartimento
della difesa degli Stati Uniti, che ha anticipato la moderna Internet, ma anche ad algoritmi di
cifratura dei dati, telecamere termiche, e moltre altre tecnologie divenute di uso comune.
Oggi lo scenario si è almeno in parte modificato, spostando la leadership dell’innovazione
in altri domini, dal momento che vi è una notevole spinta allo sviluppo tecnologico in ambito
civile con l’avanzare dei paradigmi della società connessa noti come Smart-City e Industry
4.0. Si pensi ad esempio ai veicoli a guida autonoma, nati in ambito militare ma che si stanno
sviluppando rapidamente - probabilmente più rapidamente - in ambito civile con le
cosiddette self-driving cars. È, pertanto, importante che vi sia un trasferimento delle
tecnologie abilitanti da un dominio all’altro (cross-fertilization) e la capacità di attingere
opportunamente dall’esterno (open innovation). Ciò si realizza attraverso studi e ricerche
come quelle oggetto del presente lavoro.
L’obiettivo dei questo studio è quello di analizzare i principi, le metodologie di base e
gli strumenti operativi dell’intelligenza artificiale applicata ai sistemi autonomi, a livello
modellistico e tecnologico, allo scopo di sostituire mezzi a controllo umano in contesti
operativi ad alto rischio con mezzi autonomi o semi-autonomi (es. droni), per ridurre gli errori
umani e velocizzare i tempi di risposta, ad esempio nei centri comando e controllo delle
operazioni.
Lo studio presenta una visione d’insieme degli approcci di Information Fusion
(letteralmente: ”fusione delle informazioni”) per rendere possibile la cognizione artificiale,
menzionando diverse applicazioni rilevanti in ambito militare, già in avanzata fase di studio
o ancora a livello embrionale. Tali approcci potranno essere utilizzati per il potenziamento
di sistemi d’arma e strumenti di difesa, dotati di maggiori capacità di adattamento al contesto
operativo per la gestione dinamica di incertezze ed eventi imprevisti, oltre che per
l’evoluzione e l’apprendimento esperienziale. Applicazioni future comprendono non solo i
veicoli a guida autonoma e le armi intelligenti, ma anche il potenziamento del combattente
tramite protesi ed esoscheletri. Molte delle proiezioni future sono state formalizzate dal
gruppo di lavoro sui Symbiotic Autonomous Systems, di cui lo scrivente è membro,
9
dell’Institute of Electrical and Electronics Engineers (IEEE), racchiuse in un apposito White
Paper [34].
Il presente studio descrive l’impatto dell’Artificial Intelligence (AI) sulla dottrina di
impiego dello strumento militare quando tale tecnologia sarà applicata ai mezzi militari ed ai
sistemi d’arma, tenendo conto delle diverse declinazioni dell’AI, incluse:
sistemi (semi)autonomi di tipo deterministico realizzati tramite operatori logici booleani
(es. alberi degli eventi);
sistemi (semi)autonomi basati su modelli probabilistici/stocastici per la rappresentazione
della conoscenza e l’inferenza (es. Bayesian Networks);
sistemi (semi)autonomi basati su modelli neuronali artificiali opportunamente addestrati
(ANN, Artificial Neural Networks).
Tali approcci si basano su diversi modelli di apprendimento automatico (machine
learning), che può essere supervisionato o non. Essi si applicano ai metodi di classificazione
e clustering nei moderni approcci di analisi dei dati, in particolare in presenza di grandi
quantità di informazioni (big data analytics).
Lo studio distingue tra modelli AI di tipo semi-autonomo, che richiedono la conferma
delle decisioni da parte di operatori umani (DSS, Decision Support Systems) e la completa
autonomia, che presenta problematiche di predicibilità impattanti sul processo di verifica e
validazione e quindi sulla sicurezza. Sono questi i casi in cui sono maggiormente rilevanti le
menzionate implicazioni etiche, procedurali, normative e legali [1].
L’introduzione di sistemi autonomi dotati di intelligenza artificiale comporta delle
trasformazioni anche a livello della logistica dello strumento militare, che possono essere
interpretate secondo due direzioni. Da una parte, è necessario pianificare
l’approvvigionamento delle tecnologie abilitanti dei cosiddetti deployable systems basati su
reti wireless sicure e l’aggiornamento dei sistemi a supporto della completa digitalizzazione,
il che rappresenta una precondizione imprescindibile per l’adozione dello strumento. L’altra
faccia della medaglia è l’impiego di un più elevato livello di automazione nella logistica
militare, supportato dall’AI. Qui si possono menzionare gli algoritmi di ottimizzazione
automatica multi-obiettivo per il supporto alle decisioni (es. programmazione genetica ed
evolutiva), la computazione dei percorsi più efficienti (in termini di tempo, energia, ecc.), la
definizione dinamica delle priorità di ottimizzazione, oltre che gli aspetti di resilienza tramite
ripianificazione automatica della rotta in caso di interruzioni sulla traiettoria predefinita.
Per tutto quanto detto sinora, è evidente che lo sviluppo dell’AI avrà delle conseguenze
sull’organizzazione futura delle Forze Armate, sia per la condotta delle operazioni, sia per
la struttura e i numeri del comparto della Difesa.
10
Come in altri ambiti soggetti ad automazione tramite impiego di nuove tecnologie digitali,
anche in quello militare il ruolo umano di supervisione delle decisioni, feedback e controllo
delle operazioni ad alto livello rimarrà decisivo ancora per parecchi anni. Al tempo stesso,
però, nascerà l’esigenza di formazione e specializzazione in linea con la completa
informatizzazione, con impatti rilevanti in termini di sicurezza informatica (cybersecurity),
che richiederà competenze specifiche in modo crescente. Il fatto che sarà possibile una
completa autonomia in caso di indisponibilità del personale alle postazioni di controllo
implica non solo un maggior livello di sicurezza, ma anche la possibilità di rinunciare a
ridondanze nell’organizzazione del personale, riservando il surplus a compiti diversi e più
specifici.
Come già sottolineato, esistono significative implicazioni etiche e legali legate ai futuri
processi decisionali per la scelta dell’uso della forza attraverso un sistema d’arma governato
da un’intelligenza artificiale, dotato potenzialmente di un elevato livello di autonomia.
È, pertanto, essenziale definire in modo chiaro e condiviso i limiti e le condizioni di
autonomia per la verificabilità e tracciabilità del processo decisionale. In particolare, sarà
essenziale, allo scopo di governare il processo decisionale ed eliminare qualsiasi ambiguità,
applicare il ben noto paradigma RACI (Responsible Accountable Consulted Informed), che
definisce per ogni azione chi ne è il responsabile in termini di attuazione, a chi ne è associata
la responsabilità amministrativa/legale, chi dovrà essere consultato per ottenere ulteriori
informazioni ed un’eventuale approvazione ed infine chi dovrà esserne semplicemente, ma
obbligatoriamente, informato. Sono altresì fondamentali tutti gli aspetti legati alle
certificazioni internazionali di sicurezza che regolano le modalità di progettazione, sviluppo
e verifica dei sistemi i cui malfunzionamenti possono impattare sull’incolumità delle persone.
Molti degli attuali standard di riferimento non risultano al passo con l’evoluzione attuale e
prevista dell’AI e dovranno essere necessariamente adeguati.
11
Abstract
The study of artificial intelligence applied to autonomous systems has in recent years
aroused growing interest at the international level, and it is expected that this interest will
continue to grow in the coming years [33] . It is a fairly well known fact that in the past many
technologies now used in the civil field have seen the light, more or less secretly, in the
military sector. Consider, for example, the so-called ARPANET, developed by the US
defense department, which anticipated the modern Internet, but also algorithms for data
encryption, thermal cameras, and many other commonly used technologies. Today the
scenario has partly changed, shifting the leadership of innovation towards other domains,
since there is a considerable boost to the technological development in the civil field with
the advance of connected society paradigms like Smart-City and Industry 4.0. One example
is related to the self-driving vehicles, born in the military sector, which are developing more
rapidly in the civil sphere with the attractive self-driving cars. It is therefore important to
transfer enabling technologies from one domain to another (cross-fertilization) and to draw
appropriately from the outside (open innovation). This is achieved through studies and
researches such as the one addressed by this monograph.
The objective of this study is to analyze the principles, the basic methodologies and
the operational tools of artificial intelligence applied to autonomous systems, at the modeling
and technology level, in order to replace human-controlled vehicles with autonomous or
semi-autonomous vehicles (e.g. drones) in high-risk operating environments, as well as to
reduce human errors and to speed up response times, for example in operations command
and control centers.
The study presents an overview of the information fusion approaches to enable
artificial cognition, mentioning several relevant applications in the military field, already at an
advanced phase of development or even at an embryonic level. These approaches can be
used to strengthen weapon systems and defense means, with greater ability to adapt to the
operational context for the dynamic management of uncertainties and unforeseen events,
as well as for experiential evolution and learning. Future applications include not only self-
driving vehicles and smart weapons, but also the strengthening of soldiers through
prosthetics and exoskeletons. Many of the future projections have been formalized by the
working group on Symbiotic Autonomous Systems – which the writer is a member of – of
the Institute of Electrical and Electronics Engineers (IEEE), enclosed in a special White
Paper [34].
12
The present study addresses the impact of the Artificial Intelligence (AI) on the use of
the military instrument when this technology will be applied to military assets and weapon
systems, taking into account the different declinations of AI, including:
• deterministic (semi)autonomous systems implemented through Boolean logical operators
(eg Event Trees);
• (semi)Autonomous systems based on probabilistic / stochastic models for the
representation of knowledge and inference (eg Bayesian Networks);
• (semi)Autonomous systems based on trained artificial neuronal models (ANN, Artificial
Neural Networks).
These approaches are based on different models of machine learning, which can be
supervised or not. They apply to classification and clustering approaches in modern data
analysis approaches, particularly in the presence of large amounts of information (big data
analytics).
This study distinguishes between semi-autonomous AI models, which require the
confirmation of decisions by human operators (DSS, Decision Support Systems), and
complete autonomy, which presents predictability problems impacting the verification and
validation process and therefore system safety. These are the cases in which the
aforementioned ethical, procedural, normative and legal implications are more relevant [1].
The introduction of autonomous systems equipped with artificial intelligence involves
transformations also at the level of military logistics, which can be interpreted in two
directions. On the one hand, it is necessary to plan the procurement of enabling
technologies, the so-called deployable systems based on secure wireless networks, and the
updating of systems to support complete digitalisation, which is an essential pre-requisite
for the adoption of the instrument. The other side of the coin is the use of a higher level of
automation in military logistics, supported by the AI. Here we can mention the automatic
multi-objective optimization algorithms for decision support (eg genetic and evolutionary
programming), the computation of the most efficient paths (in terms of time, energy, etc.),
the dynamic definition of optimization priorities, as well as aspects of resilience through
automatic re-planning of the route in the event of interruptions on the predefined trajectory.
For all that has been said so far, it is clear that the development of the AI will have
consequences on the future organization of the armed forces, both for the conduct of the
operations and for the structure and numbers of the defense sector. As in other areas subject
to automation through the use of new digital technologies, even in the military one the human
13
role of decision supervision, feedback and control of high-level operations will remain
decisive for many years. At the same time, however, the need for training and specialization
in line with the complete computerization will arise, with significant impacts in terms of
information security (or cybersecurity), which will require increasingly specific skills. The fact
that complete autonomy would be possible in the event of unavailability of personnel in
control centers implies not only a higher level of security, but also the possibility of reducing
organizational redundancies by dedicating resources to different and more specialized
tasks.
As already underlined, there are significant ethical and legal implications related to
future decision-making processes for the choice of using force through a weapon system
governed by an artificial intelligence, potentially endowed with a high level of autonomy.
It is therefore essential to define clear and shared limitations and conditions of autonomy for
the verifiability and traceability of the decision-making process. In particular, in order to
govern decision-making and prevent ambiguities, it is essential to apply the well-known
RACI (Responsible Accountable Consulted Informed) paradigm, which defines for each
action who is responsible for its implementation, who is associated with its administrative /
legal responsibility, who will have to be consulted for further information and possible
approval, and finally who will have to be simply, but obligatorily, informed. All aspects related
to international safety certifications that regulate design, development and verification of
systems whose malfunctions can impact on the safety of people are also essential. Many of
the current reference standards are no longer adequate if we consider the current and
anticipated evolution of AI, and therefore they will have to be adjusted accordingly.
14
Introduzione
La fantascienza ci ha abituato ad immaginare - e temere - un futuro in cui macchine
intelligenti potranno prendere il sopravvento sugli essere umani. Eppure, nonostante i passi
da gigante mossi dalla tecnologia negli ultimi decenni, sembra ancora lontano il tempo in
cui le macchine potranno avere dei livelli di intelligenza ed autonomia comparabili con quelle
ipotizzate da molti futurologi. In altre parole, le macchine attualmente disponibili non
sembrano neanche lontanamente in grado di riuscire a superare il cosiddetto “test di Turing”,
pensato per distinguere l’intelligenza umana da quella artificiale. Eppure, ce ne accorgiamo
o meno, quasi tutte le attività che svolgiamo durante la vita quotidiana sono supportate o
abilitate da computer che spaziano dai dispositivi mobili, ormai parte della nostra
quotidianità (smartphone, tablet, ecc.), ai sistemi di controllo del traffico aereo e ferroviario,
passando per i dispositivi biomedici (es. pacemakers) e per le smartcard che garantiscono
sicurezza per l’identificazione e le transazioni finanziarie. Insomma, non solo
l’intrattenimento e le nostre reti sociali, ma soprattutto la nostra sicurezza è ormai legata al
buon funzionamento di questi dispositivi. E la sicurezza dei sistemi militari (chi non ha mai
sentito parlare di “bombe intelligenti” almeno al telegiornale?) e di difesa non fanno
eccezione a questa regola. Ma tali dispositivi, che assumono sempre più l’attributo “smart”
(un sinonimo di “intelligente” nel lessico inglese), possono realmente definirsi “intelligenti”,
nell’accezione comune del termine?
Bene, a questa domanda non è facile dare una risposta. Sicuramente la maggior parte
dei dispositivi cosiddetti “smart” attualmente in circolazione, apparirebbero davvero
“intelligenti” agli occhi dei nostri avi, per la loro capacità di rispondere rapidamente ed in
modo autonomo alle richieste degli utenti. È pur vero che un oggetto che ci stupisce
sembrandoci “intelligente”, a livello di adattamento e reazione agli stimoli esterni, smette di
esserlo nel momento in cui ne comprendiamo il funzionamento interno, le connessioni tra i
microdispositivi che lo compongono, e quindi anche i limiti.
Questa considerazione ci porta ad osservare che non esiste un’unica definizione di
“intelligenza” ed in particolare di “intelligenza artificiale” (ovvero quella generata tramite
computer), ma che in realtà questa può assumere innumerevoli declinazioni.
Un automa a stati finiti, che fa parte del bagaglio nozionistico di qualsiasi informatico,
è un modello usato per realizzare qualsiasi tipo di macchina. L’esempio tipico è quello del
distributore automatico di bibite. Nessun ingegnere lo definirebbe un sistema “intelligente”,
ma è senz’altro un automa. Ciò che distingue un automa da un sistema autonomo, al di là
dell’assonanza lessicale, è che il secondo possiede un livello di “intelligenza” ed “autonomia”
15
molto più elevato, essendo capace di apprendere, adattarsi a situazioni impreviste ed in
rapida evoluzione. Ciò non può essere realizzato unicamente attraverso modelli di tipo
deterministico, ma richiede l’introduzione di modelli flessibili che tengano conto di fattori
probabilistici/stocastici e consentano di gestire adeguatamente le incertezze.
Tornando all’argomento principale della ricerca, questo è stato oggetto di diversi studi
in ambito internazionale, riportati in bibliografia (vedasi ad esempio i riferimenti
[2][5][7][9][10][11][12]), ciascuno dei quali ha stressato alcuni aspetti piuttosto che altri.
Ciò appare abbastanza normale in quanto l’argomento è fortemente multidisciplinare e
presenta innumerevoli sfaccettature ed implicazioni, non solo di tipo tecnologico, ma anche
sociologiche, etiche, procedurali, organizzative e legali. Tali implicazioni sono legate al fatto
che si tratta di sistemi, quelli militari, chiamati ad operare in ambiti critici per la sicurezza di
un numero di individui potenzialmente molto elevato. Al tempo stesso, al fine di
incrementarne le prestazioni e/o salvaguardare il maggior numero possibile di vite umane,
riducendo l’impiego dei soldati in contesti ad alto rischio, si richiede a tali sistemi di essere
reattivi agli stimoli esterni e adattativi rispetto al contesto, prendendo decisioni autonome
con un supporto umano limitato, da remoto o anche completamente assente.
La ricerca nell’ambito dell’intelligenza artificiale, come vedremo, fonda molte delle sue
basi sulle similitudini con i sistemi biologici che sono naturalmente dotati di capacità di
ragionamento, evoluzione ed adattamento al contesto (context awareness). Gli esempi più
eclatanti sono costituiti dal neurone artificiale, che simula il funzionamento di quello
biologico, e dagli algoritmi genetici, che emulano il processo evolutivo degli organismi
viventi, ovvero la cosiddetta “selezione naturale”, allo scopo di trovare soluzioni a complessi
problemi scientifici di ottimizzazione multi-obiettivo.
In tale contesto, la Figura 1 mostra una visione che combina l’evoluzione biologica e
quella tecnologica, convergendo verso paradigmi futuri quali quello della fusione bio-
digitale, che comprende i cosiddetti “umani aumentati” (augmented humans), ovvero dotati
di estensioni tecnologiche capaci di potenziarli o sopperire a carenze fisiche o cognitive.
Non parliamo necessariamente dell’uomo bionico o cyborg della fantascienza, ma più
semplicemente di qualsiasi individuo dotato di protesi meccatroniche già disponibili almeno
in forma prototipale, quali gli esoscheletri. Alcuni futurologi dell’IEEE definiscono i sistemi
che realizzano tale convergenza con la dicitura Symbiotic Autonomous Systems (SAS) [34]
.
16
Figura 1. Evoluzione dai sistemi biologici ai sistemi bio-digitali, autonomi e simbiotici.
Sistemi “smart” e sitemi “autonomi”
Sistemi “smart”
Si è detto che la definizione di “intelligenza” associata alle macchine non è univoca,
ma piuttosto soggetta ad interpretazione ed anche variabile in funzione del tempo e
dell’evoluzione stessa dei sistemi di elaborazione. Se da un lato, infatti, una macchina che
implementa un qualsivoglia algoritmo può essere vista come un “automa” che sostituisce
l’intelligenza umana, dall’estremo opposto c’è chi attribuisce alla vera intelligenza elementi
come “coscienza” o “consapevolezza di se’”, che siamo ben lontani dal realizzare in modo
artificiale. Nel mezzo vi sono tutte le soluzioni che aiutano a rendere “autonomi” i sistemi
cosiddetti “cyber-physical” (CPS, Cyber-Physical Systems), ovvero quelli dotati di diverse
caratteristiche in comune con gli esseri intelligenti del mondo animale [39]:
un sistema sensoriale, che consente per la percezione degli ostacoli, dei rumori, della
temperatura, ecc.;
un sistema di attuazione, che consente di effettuare delle azioni sull’ambiente circostante,
come spostare un oggetto, accelerare/decelerare, eseguire un comando, ecc.;
un sistema di controllo dotato di “intelligenza artificiale” (AI, Artificial Intelligence), che
consente di correlare le azioni del sistema di attuazione alle percezioni provenienti dal
sistema sensoriale.
17
In linea generale, un sensore è un qualsiasi elemento in grado di misurare una
grandezza ambientale (temperatura, umidità, luminosità, accelerazione, pressione sonora,
ecc.), mentre un attuatore è un qualsiasi elemento in grado di operare modifiche
sull’ambiente (interruttore di accensione/spegnimento, regolazione velocità di un motore
elettrico, movimentazione di un braccio meccanico, ecc.). Il sistema di controllo riceve le
informazioni percepite o misurate dal sistema sensoriale, le interpreta e tramite una funzione
di controllo opera una decisione che trasmette tramite comandi al sistema di attuazione,
secondo il linguaggio che quest’ultimo è in grado di interpretare (si veda la Figura 2).
La funzione di controllo applica un algoritmo che può avere una qualsiasi complessità, fino
ad arrivare ad elevati livelli di “intelligenza” e può essere realizzata in hardware (logica
cablata) o a livello software (sistemi programmabili).
SISTEMA SENSORIALE SISTEMA DI ATTUAZIONE
SISTEMA DI CONTROLLO
AMBIENTE
SISTEMA CYBER-PHYSICAL
Figura 2. Schema generale di un sistema di controllo, con evidenziate le componenti
“cyber-physical”.
Se le informazioni che transitano dal sistema sensoriale a quello di controllo sono
“dati grezzi” (raw data), allora il sistema di controllo dovrà effettuare tutta una serie di
operazioni preliminari per la codifica ed interpretazione dei dati in modo da elevarli ad un
livello semantico che è in grado di interpretare al fine della realizzazione della funzione di
controllo. Saranno, pertanto, necessari diversi livelli di adattamento tra l’unità elettro-
meccanica di misurazione ovvero il trasduttore ed il sistema di controllo digitale,
18
rappresentato tipicamente da un sistema di elaborazione dedicato (ES, Embedded System).
Tali livelli comprendono sia i convertitori analogico-digitale (ADC, Analog to Digital
Converter), realizzati in hardware, sia le componenti software che prendono il nome di
Adapter o Wrapper che vanno a realizzare, tramite opportune API/SDK (Application
Programming Interface / Software Development Kit), l’integrazione dei sensori più evoluti
con il sistema di controllo. Una cosa analoga accade, dualmente, per la parte di attuazione.
Qualora gli elementi del sistema sensoriale abbiano a loro volta le caratteristiche di
un ES, ovvero siano dotati di sistemi di elaborazione dedicati con CPU, RAM, ROM, porte
di I/O, adattatore LAN, ecc., allora ci troveremmo di fronte ai cosiddetti smart-sensor, noti
anche come mote (vedasi la Figura 3). Tali dispositivi hanno tipicamente diverse unità
sensoriali integrate per la misurazione delle tipiche grandezze ambientali di interesse (es.
accelerometri, GPS, sensori di temperatura, luminosità, ecc.) e hanno raggiunto un livello di
miniaturizzazione ed efficienza energetica tali da consentire autonomia elevata con
alimentazione a batterie o altre forme di energy harvesting quali:
piccoli pannelli solari;
mini-generatori eolici;
cristalli piezo-elettrici.
tecnologie basate su differenziali termici;
ecc.
Si intravede un futuro in cui la miniaturizzazione dei cosiddetti sistemi MEMS (Micro
Electro-Mechanical Systems) consentirà di spingersi alle dimensioni dei granelli di sabbia
(alcuni parlano di “smart-dust”, letteralmente “polvere intelligente”). Un esempio che
trasmette la dimensione attuale dei dispositivi MEMS è riportato in Figura 4.
Le caratteristiche di autonomia, unite ad interfacce di comunicazione wireless (ZigBee,
WiFi, ecc.) e ad hardware “ruggedized” per la resistenza a condizioni ambientali estreme,
consentono l’impiego di tali sensori a basso costo anche in applicazioni militari per il
monitoraggio ambientale dei campi di battaglia. Tali dispositivi, infatti, possono essere sparsi
su un territorio piuttosto esteso dotandoli di piccoli paracadute e lanciandoli dai velivoli.
Date le essenziali componenti di comunicazione wireless, i sensori smart costituiscono
gli elementi essenziali delle moderne Wireless Sensor Networks (WSN) che prevedono la
presenza di opportuni gateway per la connessione alle reti metropolitane o geografiche
(MAN o WAN) per il monitoraggio remoto (vedasi lo schema semplificato di Figura 5).
Tali reti ad hoc note anche come MANET (Mobile Ad-hoc NETworks) possono essere
19
caratterizzate da protocolli di multi-hop routing e topologie di tipo mesh, al fine di
incrementarne le caratteristiche di tolleranza ai guasti (fault-tolerance) e resilienza.
E’ bene notare che nonostante tali dispositivi siano identificati dalla parola “sensor”,
essi possono essere dotati di I/O al fine di interfacciarsi semplicemente e quindi controllare
la maggior parte degli attuatori tramite contatti digitali alimentati (es. 5V) o non alimentati
(dry contacts), normalmente aperti o normalmente chiusi.
Un’altra categoria di dispositivo fondamentale per la sorveglianza in ambito civile e
militare è la cosiddetta smart-camera, ovvero l’evoluzione della tradizionale telecamera
analogica, dotata di connessione di rete (network o IP camera) oltre che di “intelligenza” a
bordo realizzata tramite sistema embedded con algoritmi di visione artificiale o VCA (Video
Content Analytics). L’elaborazione delle immagini ai fini del tracciamento di oggetti e del
rilevamento di eventi (es. persona presente in area interdetta, persona in rapido movimento,
superamento perimetro virtuale o scavalcamento, sosta prolungata, oggetto abbandonato,
colluttazione, scambio di oggetti, ecc.) può anche essere centralizzato in apparati noti come
motion tracker, dotati di elevata potenza computazionale. Le tecniche più diffuse di
videosorveglianza intelligente prevedono il riconoscimento di cosiddetti blob, ovvero
porzioni di foreground dinamico (oggetti in movimento) distinguibili da un background statico
(sfondo fisso). La calibrazione prospettica consente di definire le dimensioni reali degli
oggetti e filtrare in base ad esse per distinguere, ad esempio, una veicolo da una persona.
In ambito militare, le ottiche possono essere di tipo termico, ovvero sensibili alla temperatura
ed in grado di prolungare la visione artificiale fino a diversi chilometri e supportare la guida
autonoma di veicoli anche in condizioni ambientali avverse (buio totale, fumo, nebbia o
pioggia fitta).
Recentemente i sistemi di visione artificiale sono stati affiancati da sistemi di
riconoscimento audio per rilevare autonomamente rumori anomali quali spari/esplosioni,
urla, rottura vetri, ecc. In questo caso vengono usate tecniche cosiddette di pattern
recognition sullo spettro acustico.
L’impiego combinato di sistemi di riconoscimento intelligente audio-video (multimedia
surveillance) e sensoristica eterogenea abilita paradigmi di sorveglianza multimodale in cui
i vari rilevatori agiscono in modo coordinato e sinergico al fine di ridurre il tasso di falsi
positivi (i classici “falsi allarmi”) e di falsi negativi (mancati rilevamenti).
20
Figura 3. Schema di riferimento per il processamento del segnale in un sensore smart.
Figura 4. Esempio di dispositivo MEMS.
Figura 5. Architettura semplificata di una Wireless Sensor Network.
21
Figura 6. Esempi di analisi video intelligente per rilevamento eventi (sinistra) e tracciamento
(destra).
S1 ... Si A1 ... Aj
Data Fusion
Information Fusion
Decision Fusion
Decision Makers (reasoning)
Field Operations
Action Strategy
Workflow Specification
Commands
Command & Control
Smar
t-Se
nsin
g
Smart-A
ctuation
Sensors Actuators
AS1 ... ASk
Supervisors
Command & Control
Autonomous Systems with Embedded Intelligence
(smart cyber-physical systems)
Figura 7. Transizione dai sistemi di comando e controllo dotati di sensori e attuatori di tipo
“smart” (sinistra) verso le future generazioni di sistemi autonomi dotati di intelligenza
artificale (destra).
22
Figura 8. Schema generale di controllo per un sistema autonomo.
23
Sistemi autonomi
Non tutti i sistemi cosiddetti “intelligenti” o “smart” possono definirsi autonomi. Abbiamo
visto, infatti, che nell’accezione comune di tali termini si intendono dispositivi (sensori,
telecamere, ecc.) dotati di sistemi di elaborazione dedicati che consentono di realizzare
delle funzionalità più avanzate rispetto ai dispositivi tradizionalmente utilizzati per lo stesso
scopo. In molti casi, ciò consente di ridurre al minimo l’intervento umano che però resta
ancora importante ed essenziale. Il passo successivo è la realizzazione di sistemi
completamente autonomi, spesso definiti più o meno propriamente come robot, in cui il
controllo umano è del tutto opzionale. Ciò trova giustificazione in diversi contesti ed in
particolare in quello militare, per svariate ragioni, come ad esempio:
riduzione del rischio di ferimenti o perdite di vite umane durante missioni caratterizzate
da un elevato livello di pericolosità;
riduzione del personale necessario per lo svolgimento di una determinata missione;
riduzione della probabilità di errore dovuta al fattore umano (human factors).
In molti di questi sistemi cosiddetti “autonomi” la componente umana resta ancora
importante ma solamente a scopo di supervisione ed eventuale intervento in caso di
anomalie. Potrebbe essere necessario, invece, approvare determinate scelte operate
autonomamente dai sistemi supervisionati ed in tal caso tali sistemi sarebbero definiti come
“semi-autonomi”.
Una caratteristica importante dei sistemi autonomi è quella cosiddetta della
“decentralizzazione”. In molti sistemi, infatti, il controllo è quasi completamente
centralizzato, ovvero è presente almeno una unità di livello gerarchico superiore in cui è
concentrata la logica di funzionamento trasferita poi agli apparati periferici che fungono
dunque da “meri esecutori”. All’estremo opposto, i sistemi decentralizzati sono costituiti da
componenti o “agenti”, dotati di un elevato livello di autonomia, in grado di gestire le
situazioni senza il supporto di un organo di governo di livello superiore. Tra questi due
estremi esistono tutta una serie di soluzioni intermedie in cui i sistemi autonomi si
appoggiano all’infrastruttura centralizzata ai fini dello svolgimento di determinate funzioni di
comunicazione e coordinamento.
Esempi ben noti di sistemi autonomi sono:
veicoli a guida autonoma (self-driving) noti come UGV (Unmanned Ground Vehicle) –
vedasi Figura 9;
aeromobili a pilotaggio remoto noti comunemente come “droni” o UAV (Unmanned Aerial
Vehicle) – vedasi Figura 10.
24
Tali sistemi sono anche detti “driverless” o “pilotless”, in quanto non è presente
personale di manovra a bordo. È anche possibile che sistemi di questo tipo, pur rimanendo
autonomi, abbiano personale a bordo che possa prendere il controllo del mezzo in caso di
necessità. È importante però distinguere tra due categorie:
sistemi teleguidati, ovvero operati da remoto;
sistemi a controllo completamente autonomo.
Chiaramente, i sistemi teleguidati non possono essere definiti del tutto autonomi,
nonostante non sia presente personale a bordo, in quanto richiedono un controllo remoto
da parte di un operatore. Qualora il controllo centralizzato fosse di tipo automatico, cioè non
governato da operatori umani, allora si potrebbe parlare di autonomia con riferimento al
sistema complessivo ma non ai singoli componenti, che perderebbero la maggior parte delle
loro caratteristiche di autonomia in caso di perdita di connessione con il sistema.
Sia in caso di controllo remoto da parte di operatori umani, sia in caso di controllo
automatico con logica centralizzata, alcune caratteristiche di autonomia possono essere
presenti allo scopo di gestire situazioni critiche, come ad esempio nel caso dei droni: la
stabilizzazione in volo, lo schivamento di ostacoli, il ritorno alla base e/o l’atterraggio sicuro
in caso di perdita di connessione radio.
Spostandoci nel campo della totale autonomia, sistemi UGV e UAV diventano
essenziali per automatizzare missioni ripetitive di pattugliamento del territorio e sorveglianza
delle infrastrutture. Tali sistemi, infatti, possono essere configurati per seguire traiettorie
ricorrenti e rotte predeterminate alla ricerca di elementi sospetti quali ad esempio segni di
scavi per il posizionamento di mine. Tale obiettivo può essere realizzato attraverso
meccanismi di visione artificiale basati sulla comparazione delle nuove immagini acquisite
con quelle rilevate in situazioni di “normalità” o “sicurezza”. In particolare, sono già in
sperimentazione talune applicazioni in cui droni equipaggiati con un carico (payload)
costituito da rilevatori CBRNe (Chimico Batteriologico Radiologico Nucleare esplosivo) per
il campionamento di sostanze in scenari di sospetto attacco terroristico o militare con agenti
nocivi di questo tipo. In queste situazioni, i droni sostituiscono efficacemente ed in tutta
sicurezza l’intervento umano che sarebbe soggetto a notevoli rischi di contaminazione se
non addirittura di esplosione. L’automazione può riguardare manovre e procedure di
raccolta/esame dei campioni, così come gli aspetti collaterali di rilevamento ostacoli tramite
visione artificiale ed il ritorno automatico alle basi di ricarica (charging pod) ad induzione, in
caso di necessità.
25
Figura 9. Esempi di robot militari di tipo Unmanned Ground Vehicles (UGV).
Figura 10. Esempi di Unmanned Aerial Vehicles (UAV).
26
Intelligenza artificiale
Sin dagli albori dell’informatica moderna, il concetto di “automa a stati finiti” è stato uno
dei capisaldi della realizzazione di qualsiasi macchina che potesse definirsi automatica.
Tale astrazione consente, infatti, di modellare una macchina in funzione dei diversi stati che
essa può assumere e ai quali corrispondono diverse relazioni di ingresso/uscita. Macchine
di questo tipo possono svolgere funzioni più o meno elementari come il riconoscimento di
una specifica sequenza di ingressi (ad es. un codice numerico o PIN), fino a compiti
estremamente complessi che richiedono un numero di stati molto elevato. Il concetto stesso
di “automa” richiama quello di macchina automatica, ma non necessariamente autonoma
nel senso che abbiamo introdotto. La rigida struttura deterministica dell’automa, infatti, non
lascia spazio ad alcuna incertezza o capacità di adattamento. Modelli di tipo deterministico
basati su logica di tipo “booleana” (operatori e connettivi logici NOT, AND, OR), infatti, non
si prestano a modellare logiche di tipo fuzzy, a cui concorrono elementi di aleatorietà. Inoltre,
i parametri del modello non possono subire alcuna modifica o adattamento nel corso del
tempo. Operando una rapida ed intuitiva comparazione con il comportamento degli
organismi viventi che rappresentano uno straordinario esempio di adattatività, è evidente
che le differenze in termini di “intelligenza” e “autonomia” risultano abissali. Esistono
numerose applicazioni in cui storicamente si è ritenuto e si ritiene ancora opportuno
preservare tale rigido determinismo e prevedibilità. Si tratta delle applicazioni di controllo di
sistemi “safety-critical” (es. sistemi di controllo avionico), che vengono testati affinché’ ad
una determinata sequenza di input corrisponda sempre e comunque uno specifico output
considerato sicuro (safe). Tali sistemi devono essere certificati rispetto a rigorosi standard
internazionali che sconsigliano l’applicazione di approcci AI in quanto ne minerebbero il
determinismo e la predicibilità. In futuro, e/o in altri domini non soggetti a tali certificazioni,
la situazione potrebbe essere molto differente e le caratteristiche di intelligenza ed
autonomia potrebbero essere efficacemente adoperate per rendere il sistema più sicuro,
per quanto meno predicibile, nel senso della sua capacità di prevenire/fronteggiare
situazioni impreviste ed operare autonomamente con l’obiettivo di garantire una crescente
protezione delle persone rispetto ai sistemi tradizionali (sicurezza pro-attiva e adattativa).
27
Un altro paradigma emergente derivante dall’osservazione delle forme di intelligenza
caratteristiche di organismi biologici anche piuttosto semplici è quello cosiddetto della
swarm intelligence. È ben noto infatti che numerose specie viventi (es. sciami di insetti,
stormi di uccelli, banchi di pesci, ecc.) si organizzano autonomamente e si muovono in
gruppi compatti al fine di potenziare le proprie capacità di autodifesa. Meccanismi del genere
di auto-organizzazione in gruppi ed aiuto reciproco in caso di necessità sarebbero
auspicabili anche per i sistemi artificiali e troverebbero numerose applicazioni in diversi
ambiti, tra cui quello militare. Ad esempio, “sciami” di piccoli droni potrebbero mutuare dagli
organismi viventi tale intelligenza a scopo di ottimizzazione, monitoraggio e difesa reciproca.
Si tratta di un obiettivo sfidante in quanto richiede elevate capacità di coordinamento, ma
una forma basilare può essere individuata nel cosiddetto meccanismo di platooning, in cui i
veicoli si organizzano autonomamente in plotoni, mantenendo in modo sicuro una distanza
reciproca mediamente costante. Si tratta di un’applicazione evidentemente molto rilevante
nell’ambito degli spostamenti militari, ma che ha applicazioni anche in ambito civile nel
campo delle automobili a guida autonoma (self-driving cars) e delle autostrade del futuro
(smart-highways). Si tratta quindi di uno dei molti casi in cui la ricerca avanzata in uno dei
due ambiti (civile o militare) può essere facilmente trasferita nell’altro.
Esistono diversi linguaggi di programmazione (uno dei più antichi è il Prolog) che
supportano la cosiddetta “ingegneria della conoscenza” e la realizzazione di sistemi esperti.
Parimenti, esistono diversi formalismi per la rappresentazione della conoscenza sotto forma
di ontologie e modelli semantici nonché per il vero e proprio processo cognitivo, per la
classificazione e l’inferenza statistica.
A titolo di esempio, si riportano in Figura 11 e Figura 12 delle rappresentazioni grafiche
relative alle reti neurali artificiali (ANN, Artificial Neural Networks) e alle reti bayesiane (BN,
Bayesian Networks) che, insieme ai modelli markoviani nascosti (HMM, Hidden Markov
Models), rappresentano alcuni tra i formalismi di maggiore successo per l’AI.
Le ANN sono basate su un’astrazione del neurone biologico di cui imitano il
funzionamento. Reti multilivello dotate di diversi strati neuronali consentono di realizzare
meccanismi di associazione, riconoscimento e classificazione in modo efficiente ed
elegante. Proprio come il cervello di un bambino, una ANN va “allenata” opportunamente
attraverso opportuni insiemi di dati (training set) e può continuare ad apprendere
modificandosi nel corso del suo ciclo di vita. Le ANN sono il formalismo più promettente per
la realizzazione di un cervello artificiale e vi sono esperimenti in corso per poterle
implementare a livello hardware, anche se le risorse richieste per avvicinarsi alla
complessità del cervello umano sarebbero a tutt’oggi proibitive.
28
Un approccio completamente diverso è realizzato attraverso l’impiego delle reti di
Bayes. Una BN è un grafo orientato aciclico (DAG, Direct Acyclic Graph) in cui i nodi
rappresentano variabili aleatorie e gli archi interdipendenze tra esse, quantificate attraverso
tabelle di probabilità condizionali (CPT, Conditional Probability Tables). Applicando il
teorema di Bayes, è possibile dimostrare che una rete siffatta consente di calcolare la
distribuzione di probabilità totale e dunque l’intera conoscenza, dal punto di vista
probabilistico, del problema in esame, cioè quello rappresentato dalla BN. Attraverso
meccanismi di inferenza è possibile prevedere quale sarà la probabilità associata ad un
certo evento a partire dalla probabilità associata agli eventi elementari e tenendo contro di
fattori di incertezza. È possibile arricchire le BN con nodi di “costo” e nodi di “utilità” in modo
da affrontare problemi di ottimizzazione costi/benefici. Una delle applicazioni storicamente
più note delle BN per realizzare delle forme di intelligenza artificiale è quella sviluppata da
Microsoft con il suo assistente Office. L’impiego delle reti bayesiane è ancora relegata ad
applicazioni di nicchia, come ad esempio quelle di supporto alla diagnostica. Uno dei limiti
è che gli algoritmi di inferenza sono classificati come NP-hard e, pertanto, BN di grandi
dimensioni possono diventare facilmente ingestibili dal punto di vista della complessità
computazionale.
Figura 11. Esempi di neurone artificiale (sinistra) e rete neurale artificiale (destra).
29
Figura 12. Esempio classico di rete bayesiana (grafo orientato aciclico) e relative tabelle di
probabilità condizionali tra le variabili aleatorie (rappresentate dai nodi del grafo).
30
Information Fusion, sorveglianza e supporto alle decisioni
Quello dell’Information Fusion è un ambito di ricerca che ha forti sovrapposizioni con
l’AI dal momento che lo scopo è quello di integrare tra loro le informazioni provenienti da
svariate sorgenti potenzialmente non affidabili ed eterogenee (es. sensori, persone).
Tale “fusione” può essere effettuata a diversi livelli, a partire dai dati grezzi (raw data) di
sensori tradizionali (non-smart), fino ad arrivare ai livelli più alti di raffinamento cognitivo e
supporto alle decisioni (vedasi la Figura 13) [21].
Innanzitutto, è bene sottolineare la differenza tra dato e informazione. Un dato è
un’informazione di cui non si conosce la chiave di decodifica ed interpretazione. Pertanto,
affinché’ un insieme di bit possa diventare un’informazione effettivamente utilizzabile, è
indispensabile conoscere il modello che associa l’informazione alla sua rappresentazione
(il dato, appunto). Possiamo, ad esempio, conoscere l’insieme di simboli di un linguaggio
sconosciuto (cuneiforme, ad esempio), ovvero la semiotica, e finanche ricavare le modalità
con cui tali simboli vengono utilizzati ed interconnessi tra loro, ovvero la sintassi, ma non ne
riusciremo mai a comprendere il significato reale, ovvero la semantica, senza un modello
interpretativo. È come avere un’informazione cifrata/crittografata senza la relativa chiave di
decodifica.
E’ quindi essenziale, nei sistemi di monitoraggio distribuito complessi ed eterogenei,
riuscire a connettere la grande mole di dati (big data) ad una loro sintesi che consenta di
estrarne le informazioni rilevanti, dopo averne effettuato una opportuna analisi (big data
analytics).
Le informazioni rilevanti contenute dei dati sono spesso definite features (vedasi la
Figura 14). Dopo l’estrazione delle feature, si procederà, al livello superiore, alla decision
fusion, ovvero a relazionare la decisione complessiva sull’evento rilevato (es. scenario di
minaccia bellica o cyberwar) con le decisioni prese a livello più basso dai singoli componenti
distribuiti su una certa area (es. diversi sistemi di intrusion detection).
Un modo per rappresentare il processo complessivo di Information Fusion è quello di
associarlo ad un ciclo tipo Deming (o ciclo PDCA: Plan-Do-Check-Act; Figura 15) [15].
La Figura 16 sintetizza l’intero processo descritto nelle applicazioni cosiddette di
sorveglianza intelligente. Queste supportano gli operatori automatizzando il rilevamento di
eventi anomali e minacce, mettendo in relazione i dati sensoriali provenienti dalle diverse
sorgenti con i modelli di rappresentazione, integrazione e riconoscimento di eventi. Affinché’
ciò sia possibile, tali eventi più o meno complessi devono essere descritti tramite adeguati
31
modelli memorizzati in opportuni archivi che costituiscono la base di conoscenza del
sistema.
Figura 13. Livelli di fusione delle informazioni tra le sorgenti e gli operatori umani.
Figura 14. Livelli di granularità IF: dall’estrazione delle informazioni alla fusione delle
decisioni.
Figura 15. Ciclo PDCA applicato all’Information Fusion: osservare, orientarsi, decidere,
agire.
LEVEL 0Signal
assessment
LEVEL 1Object
assessment
LEVEL 2Situation
assessment
LEVEL 3Impact
assessment
LEVEL 4Process
refinement
LEVEL 5Cognitive
refinement
SOURCES
DBMS
HCI
32
Figura 16. Una visione d’insieme del processo di fusione delle informazioni in applicazioni
di sorveglianza intelligente.
33
Sistemi software adattativi
Tutto ciò che abbiamo mostrato nelle precedenti sezioni gioca un ruolo fondamentale
nella realizzazione di un sistema software adattativo. Un sistema adattativo non è altro che
un sistema che integra tutti gli elementi di percezione del cambiamento, analisi,
pianificazione ed implementazione delle azioni che consentono di adattarsi allo specifico
contesto in cui opera. Un sistema con un livello di autonomia elevato è anche un sistema
adattativo. Il paradigma dei sistemi adattativi, raccogliendo tutta una serie di concetti,
strumenti, metodologie e tecnologie attinte da altre aree di ricerca, è da intendere in modo
olistico, ovvero guardando ad un sistema complesso nella sua interezza. L’attributo
“software” potrebbe quasi essere omesso: è praticamente impossibile pensare ad un
sistema hardware che si adatti al contesto trasformandosi. Eppure, attraverso il software,
anche l’hardware può assumere conformazioni diverse. Si pensi ad esempio agli ultimi rover
per le esplorazioni planetarie della NASA le cui ruote possano cambiare forma (es.
triangolari piuttosto che circolari) a seconda del livello di consistenza e asperità del terreno
(es. fondi rocciosi scoscesi piuttosto che sabbiosi). Tali tecnologie possono trovare
facilmente impiego anche negli UGV in ambito militare. Vale la pena menzionare recenti
ricerche sui cosiddetti stem materials, ovvero materiali “intelligenti” in grado di fungere da
sensori ed attuatori, modificandosi autonomamente in funzione delle condizioni ambientali
in analogia con i meccanismi biologici di auto-riparazione presenti in molti esseri viventi, tra
cui le piante [8].
Tornando ai nostri sistemi adattativi, una regola tradizionale e fondamentale del
software è che esso non può modificare se stesso. In altre parole, un programma non può
cambiare in termini di codice in funzione dei dati e del tempo. Oggigiorno, questa visione
non è più così rigida come in origine. Nella programmazione orientata agli oggetti (OOP:
Object Oriented Programming) è ben noto il concetto di “polimorfismo”, in cui oggetti
possono essere assegnati a diverse classi al tempo di esecuzione (run-time) e pertanto
assumere caratteristiche diverse non prevedibili deterministicamente in fase di
programmazione. Pur senza che si modifichi il codice degli algoritmi, però, è possibile
realizzare un adattamento al contesto attraverso modelli di apprendimento a run-time
opportunamente connessi al sistema software, come quelli mostrati nelle precedenti sezioni
(es. ANN). Quello che si realizza, alla fine, è un sistema di controllo a ciclo chiuso (Figura
17) il cui obiettivo non è quello di modificare l’ambiente circostante, bensì se stesso,
secondo un processo di tipo PDCA.
34
La Figura 18 mostra una visione di un complesso sistema adattativo riprendendo
l’analogia con i sistemi biologici. In tale schema, il modello di apprendimento ed adattamento
è definito come rule system (una sorta di “motore delle regole”) e richiama un concetto sia
genetico (RNA/DNA, adattamento evolutivo) sia cognitivo. È interessante la presenza di un
modulo corrispondente al sistema riproduttivo, che apre scenari di portata difficilmente
prevedibili. È ben nota, infatti, la capacità riproduttiva degli esseri viventi. Questa, per quanto
rappresenti un meccanismo straordinario di cui ancora non si riescono a cogliere tutti i
segreti, ha dei limiti importanti, tra cui l’impossibilità di pianificare e prevedere il risultato
finale. Macchine in grado di riprodursi, invece, potrebbero realizzare cloni perfetti di se
stesse nonché’ versioni migliorate, accelerando notevolmente l’evoluzione biologica che è
notoriamente molto più lenta. Da un punto di vista tecnologico, il concetto non è tanto
lontano dalla fattibilità reale: un robot umanoide abbastanza complesso è perfettamente in
grado di manipolare gli strumenti che gli consentano di realizzare un altro robot dalle stesse
caratteristiche, purché qualcuno lo abbia programmato per farlo. Sono invece molto lontane
le capacità di self-awareness (coscienza di se’) che potrebbero scatenare in modo
completamente autonomo il processo riproduttivo.
Rimanendo nel contesto della robotica, non c’è dubbio che questa abbia avuto un forte
impulso in ambito industriale. Con l’avvento del paradigma Industria 4.0, i robot industriali si
evolveranno ulteriormente in termini di interconnessione e cominceranno a diffondersi
sempre di più i cosiddetti cobots (sincrasi di collaborative robots) cioè robot fortemente
interagenti e cooperanti con gli esseri umani, che necessitano di evolute capacità di
adattamento al contesto anche al fine di non recare danno agli esseri umani con cui
collaborano. Per quanto le applicazioni dei cobot siano ancora pionieristiche e limitate a
contesti specifici come quello industriale, si può facilmente intravedere un futuro in cui essi
potranno essere impiegati in contesti militari allo scopo di salvaguardare l’incolumità dei
soldati affrontando in autonomia le situazioni più critiche come lo sminamento.
Altre applicazioni in ambito militare possono riguardare l’impiego di droni di tipo UAV o UGV
(in tale contesto si possono menzionare anche i cosiddetti “cani robotici”), operativi a
distanza ravvicinata dal combattente ed inviati in avanscoperta allo scopo di osservare
postazioni nascoste dietro ostacoli visivi (es. oltre una collina). La ricerca sulle Software
Defined Networks (SDN) ed il paradigma del Software Defined Everything (SDE)
supporteranno le evoluzioni della cooperazione tra esseri umani e robot (Human-Robot
Cooperation) [33].
35
La Figura 19 mostra uno schema a piramide stratificata di un complesso sistema
adattativo, esplicitando i livelli funzionali ed i relativi attributi desiderati. Bisogna notare che
non tutti i sistemi adattativi devono necessariamente possedere tutte le caratteristiche
elencate, ma la figura rappresenta una buona sintesi ed una visione d’insieme delle parole
chiave e degli ambiti di ricerca da affrontare al fine di realizzare un sistema adattativo che
possa realmente considerarsi tale.
Figura 17. Schema di controllo generico per un sistema adattativo.
Figura 18. Modello di un complesso sistema adattativo.
36
Figura 19. Strati funzionali di un sistema adattativo a partire dal livello base
(interconnessione) per arrivare a quello apicale (riconfigurazione).
37
Sistemi cognitivi nel comando e controllo gerarchico decentralizzato
In diversi ambiti, tra cui il monitoraggio e la sorveglianza di infrastrutture critiche
distribuite su vasti territori (es. sistemi di trasporto, reti elettriche ed idriche, ecc.) nonché’
sistemi militari per la difesa e la sicurezza nazionale, il controllo e la supervisione delle
operazioni viene effettuato da centri localizzati a diversi livelli gerarchici. Esistono centri di
comando e controllo:
“locali”, ovvero situati nelle immediate vicinanze delle operazioni da controllare e dedicati
esclusivamente ad una specifica sotto-area geografica;
“globali”, ovvero unici per l’intero sistema da controllare ed essenziali per il
coordinamento delle operazioni su scala ad esempio nazionale, laddove è necessario
prendere decisioni importanti per la gestione di crisi ed emergenze;
“regionali”, ovvero intermedi tra i livelli “globale” e “locale”.
Possono sussistere diversi livelli gerarchici tra i centri locali e globali, a seconda della
complessità del sistema da monitorare e gestire. L’aumento dei livelli gerarchici introduce
una maggiore complessità a livello tecnico per le interconnessioni ed anche a livello
procedurale per la gestione della visibilità, delle competenze e delle responsabilità tra i
diversi centri. Per contro, un numero maggiore di centri consente di implementare un
approccio modulare cosiddetto “divide et impera”, ovvero di suddivisione di un problema di
grandi dimensioni in sottoproblemi più elementari, facili da gestire e risolvere. Ciò si presta
a realizzare approcci di “intelligenza distribuita” secondo i paradigmi generali
dell’Information Fusion (vedasi le precedenti sezioni). A fronte di una progettazione iniziale
ed un’organizzazione più complessa, la modularità facilita anche la resilienza e la
ridondanza. Si tratta di un approccio molto diffuso in praticamente tutti gli ambiti
ingegneristici. La difficoltà sta nel trovare il giusto compromesso al fine di determinare il
livello ottimale di livelli gerarchici e la giusta dimensione degli ambiti di competenza dei centri
locali.
Tradizionalmente, il coordinamento delle operazioni tra i diversi centri è stato effettuato
usando i mezzi di comunicazione e le tecnologie disponibili nello specifico momento storico
(es. telegrafia, telefonia, reti informatiche, ecc.). Attualmente, è ben noto che l’evoluzione
delle tecnologie ICT ha consentito una trasformazione radicale in tutti gli ambiti, compreso
quello militare. Quasi tutte le comunicazioni sono, pertanto, gestite in modo digitale (es.
tramite VoIP) ed i mezzi più tradizionali rimangono come strumenti di ripiego (back-up, fall-
back) in caso di indisponibilità dei sistemi digitali.
38
L’informatizzazione e l’interconnessione delle reti dati ha aperto scenari in cui tutte le
operazioni sono veicolate tramite appositi software di gestione. L’evoluzione successiva è
quella di dotare tali software di capacità di autonomia decisionale o almeno di supporto alle
decisioni (semi-autonomia) per operatori, direttori e ufficiali responsabili. La completa
autonomia e la semi-autonomia non sono necessariamente in conflitto tra loro, in quanto i
sistemi cognitivi basati su intelligenza artificiale possono essere configurati per operare in
modo “ibrido” ovvero:
suggerire le azioni da intraprendere ed attendere un riconoscimento (acknowledgement)
prima di lanciare i relativi comandi verso i centri di livello gerarchico inferiore, se
disponibili, o direttamente verso gli apparati di campo;
qualora il personale al centro di controllo di competenza non desse segnali di vitalità
entro un determinato lasso temporale, mettere il centro fuori controllo ed operare
un’escalation verso i centri di livello superiore;
qualora il personale al centro di controllo di competenza non desse segnali di vitalità
entro un determinato lasso temporale e non fossero disponibili/connessi centri di
controllo di livello superiore, azionare automaticamente le contromisure previste nelle
procedure di risposta (workflow) pre-configurate associate agli eventi rilevati.
Al fine di implementare tali livelli di autonomia, i sistemi software basati su tecniche di
intelligenza artificiale disponibili ai centri di controllo devono prevedere meccanismi di
consapevolezza situazionale (situation awareness), allerta precoce (early warning) e
supporto alle decisioni (DSS, Decision Support Systems) realizzati tramite analisi e
correlazione dei dati (big data analytics), fusione delle informazioni (information fusion),
riconoscimento di eventi/sequenze (event/pattern recognition), approcci di soft-computing
ed euristiche che consentano di gestire incertezze, attacchi imprevisti e minacce
sconosciute.
In particolare, le incertezze da gestire possono derivare da diversi fattori:
incertezze sull’analisi del rischio, ad esempio impossibilità di prevedere tutte le minacce,
quantificare con precisione le vulnerabilità e stimare adeguatamente le conseguenze;
incertezze sulla modellazione (struttura e/o parametri) del sistema e delle minacce
durante la progettazione del modello cognitivo;
incertezze intrinseche sull’affidabilità del rilevamento degli eventi da parte dei sensori
(falsi positivi, falsi negativi).
39
Tra le funzioni essenziali che si richiedono ad un sistema di centri di controllo per
applicazioni critiche e militari vi è quella di garantire la continuità operativa ed il recupero da
eventuali disastri (business continuity & disaster recovery). Tali funzioni richiedono
un’attenta fase di pianificazione, in cui rientrano aspetti di tipo procedurale, e di
implementazione di tecnologie autonome di replicazione dei dati in modo da garantire la
disponibilità di uno o più back-up rapidamente accessibili in caso di indisponibilità di uno o
più centri. La presenza di connessioni di rete ridondanti (es. meshed, hyperloop) e
un’architettura di tipo federato con replicazione delle basi di dati (file di configurazione
statica e dinamica, registrazione cronologica degli eventi, log-files, ecc.) costituiscono il
presupposto per un adeguato livello di resilienza nei confronti di minacce sia di tipo
naturale/casuale (es. guasti, incendi, terremoti, alluvioni, ecc.) che intenzionale (es. attacchi
cyber, bombardamenti, ecc.). In tali ipotesi è possibile configurare il sistema per poter
operare da uno qualsiasi dei centri superstiti per sopperire all’indisponibilità di un centro
danneggiato. Qualora i dati replicati non fossero accessibili in tempo reale, i meccanismi di
disaster recovery si occuperebbero di ricostruire in background i dati perduti, garantendo
comunque nel frattempo un livello di operatività essenziale anche se con capacità e
prestazioni ridotte.
L’interfacciamento tra sensori/attuatori e centri di controllo dovrà preferibilmente
basarsi su interfacce basate su web-services, middleware SOA (Service Oriented
Architectures) e protocolli standard quali CEI-ABI e OPC (Object linking and embedding for
inter-Process Communication). In caso di apparati di tipo legacy non dotati di tali capacità
di interfacciamento, dovranno essere realizzati opportuni moduli software di adattamento
(adapter o wrapper).
Figura 20. Esempi di centri di comando e controllo delle operazioni.
40
Local AutonomousOperations Control Center
- 1 -
Local Autonomous Operations Control Center
- M -
AI-based Cognitive Engine AI-based Cognitive Engine
Sensors ActuatorsAugmented
Humans
Vehicles Facilities Weapons
Sensors ActuatorsAugmented
Humans
Vehicles Facilities Weapons
... ...
...
Regional AutonomousOperations Control Center
- 1 -
Global Autonomous Operations Control Center
- 1 -
AI-based Cognitive Engine
AI-based Cognitive Engine
...Regional Autonomous
Operations Control Center - N -
AI-based Cognitive Engine
Informaton Flow
Events, States, Alarms, Data
Commands
...
Interface
Adapter
Figura 21. Schema gerarchico di centri di comando e controllo dotati di intelligenza
artificiale e autonomia.
Figura 22. Esempio di complessità dei centri di comando e controllo riferita
all’organizzazione distribuita a gerarchica delle forze armate sul territorio italiano.
41
Sistemi militari e armi autonome: aspetti etici e legali
L’impiego di sistemi con capacità decisionali autonome in ambiti di una elevata criticità
come quello militare non può prescindere da considerazioni di tipo etico e legale [1].
È evidente, infatti, che una macchina in grado di uccidere che sbagliasse obiettivo
solleverebbe le forze armate da qualsiasi responsabilità se non quelle indirette – qualora
presenti – che riguardano figure quali il progettista o il manutentore, alla stregua di quanto
accade per sistemi di controllo critici per la sicurezza, quali quelli avionici, che dovessero
fallire con conseguenze catastrofiche. L’analogia, però, varrebbe fino ad un certo punto, in
quanto, come si è detto, i sistemi di controllo impiegati nei tradizionali ambiti critici sono allo
stato attuale del tutto predicibili e non presentano caratteristiche di autonomia secondo
alcuna forma di intelligenza adattativa. Si pone, pertanto, un problema fondamentale anche
di tipo etico (per ulteriori approfondimenti si rimanda ai riferimenti bibliografici [25] e [32]).
Con riferimento alle possibilità di trasferimento tecnologico dall’ambito civile, problemi
etici di comparabile entità si stanno affrontando nell’ambito della ricerca sui cosiddetti
“cobots” (cooperative robots), ovvero robot che collaborano con esseri umani per svariati
compiti, incluso quello classico rappresentato dalla catena di montaggio. La vicinanza e
cooperazione tra umani e robot pone problemi di diversa natura. Primo, quello relativo alla
sicurezza, essendo i robot dotati di forza e caratteristiche tali da poter facilmente ferire un
essere umano a causa di un movimento sbagliato o ad esempio per non aver rilevato la
presenza di persone sulla traiettoria di un braccio meccanico. Secondo, quello relativo alla
convivenza e ai rapporti “sociali” tra persone, dotate di intelligenza empatica e sentimenti, e
robot, dotati di intelligenza artificiale e spesso con sembianze non umane, fatta eccezione
per i robot cosiddetti “umanoidi”.
Il primo aspetto può essere gestito attraverso approcci di risk assessment e hazard
analysis comuni all’ingegneria dei sistemi critici per la sicurezza (safety-critical).
Ad esempio, appositi sensori dovranno essere installati e testati al fine di scongiurare
l’eventualità di un impatto, perforamento, ustione, taglio o altro possibile ferimento.
Per quanto riguarda l’aspetto psicologico e sociale, invece, diversi studi sono in corso per
comprendere l’entità del fenomeno, la reazione e accettazione da parte degli operai,
l’impatto di robot umanoidi piuttosto che di sembianze diverse, ecc.
Un altro esempio notevole è quello dei veicoli a guida autonoma, che pone l’enfasi su
un problema comune ad altri sistemi critici, comprese le armi autonome. Infatti, è
recentemente emersa una problematica di certo non nuova, ma che diventa particolarmente
42
rilevante data la prevedibile diffusione, in particolare, delle self-driving cars: quella dei
cosiddetti “dilemmi” [26]. Un dilemma si verifica quando il sistema autonomo si trova a dover
prendere delle decisioni che risultano eticamente controverse anche per gli esseri umani,
come ad esempio quelle che richiedono di giudicare il valore della vita di diversi esseri
umani: uno o più bambini rispetto ad uno o più adulti, guidatori/piloti rispetto ad uno o più
passanti/cittadini, ecc. Come bisogna comportarsi in tutte le situazioni in cui una macchina
si trova a dover decidere quale vita sacrificare, non potendo salvarle tutte? La risposta è
chiaramente soggettiva e molto complicata, ma al tempo stesso si tratta di una logica
fondamentale da trasmettere alla macchina, in quanto potrebbe trovarsi di fronte a tali
situazioni e costretta a prendere una decisione in tempi rapidi. In altre parole, ci si trova di
fronte al paradosso di chiedere alle macchine di essere pronte a risolvere dei dilemmi
irrisolvibili anche per gli esseri umani, che in tali situazioni agiscono spesso istintivamente
o egoisticamente, piuttosto che basandosi su ragionamenti logici. Sicuramente in ambito
militare possono essere definiti dei criteri maggiormente oggettivi, come ad esempio la
priorità data a forze alleate piuttosto che nemiche o alla protezione dei civili piuttosto che
dei militari, laddove fosse possibile distinguere tra tali categorie, ma permangono situazioni
di ambiguità allorquando tali criteri non siano facilmente applicabili, che fanno ricadere la
situazione nella casistica dei “dilemmi” precedentemente illustrata.
E’ evidente la necessità di definire linee guida e standard di riferimento che siano il più
possibile universalmente accettati, in modo da non trovarsi ad avere sistemi autonomi
sviluppati da diverse aziende in diversi paesi che in situazioni di dilemma vadano ad
avvantaggiare determinate categorie piuttosto che altre basandosi su discriminazioni
etniche, territoriali, sessiste, politiche o religiose.
43
Figura 23. Esempi di robot militare autonomo SWORDS (sinistra) e nave da guerra
autonoma (destra).
44
Realtà virtuale e realtà aumentata
E’ opinione comune che l’AI avrà un impatto rilevante anche sulla formazione e
l’addestramento del soldato futuro. Si tratta di uno degli aspetti importanti di interazione
uomo – intelligenza artificiale che dovrà essere affinato al fine di rendere l’apprendimento
sicuro ed efficace. In particolare, sarà sempre più importante definire scenari operativi
realistici e sempre diversi l’uno dall’altro tramite simulatori intelligenti. L’obiettivo di tali
simulatori è quello di rispondere autonomamente agli stimoli ricevuti dal comportamento del
soldato in fase di addestramento che può essere percepito dal simulatore attraverso un
sistema sensoriale:
indossabile (tute, guanti, stivali, ecc.) dotato di accelerometri, giroscopi e altri dispositivi
integrati che consentono di rilevare e tracciare il movimento sul campo con un adeguato
livello di granularità (es. rotazione del sistema braccio/mano);
ad installazione fissa, in cui telecamere 3D e altri sensori percepiscono a distanza, tramite
visione artificiale, il movimento e comportamento di uno o più soldati nell’ambiente
monitorato.
I due approcci possono essere utilmente impiegati anche in modalità combinata. A tal
riguardo, si vedano gli esempi reali illustrati in Figura 24.
Viceversa, il soldato percepirà la realtà virtuale in modo immersivo attraverso appositi
caschi per la realtà virtuale (VR, Virtual Reality) e possibilmente attuatori indossabili di altro
tipo. I caschi VR consentono una visione adattativa tridimensionale ed un ascolto degli
stimoli audio dell’ambiente circostante. Essendo dotati di appositi sensori, inoltre, essi
percepiscono la rotazione della testa e modificano coerentemente lo scenario proiettato allo
scopo di fornire una totale esperienza immersiva.
Nel caso dell’approccio a realtà aumentata (AR, Augmented Reality), invece, si tratta
di un sistema ibrido usabile non solo in fase di simulazione e addestramento, ma soprattutto
utile, in modalità diversa, negli scenari operativi reali. Infatti, la realtà aumentata prevede
che i soldati indossino appositi visori (smart-glasses) che arricchiscono la percezione della
realtà con ulteriori eventi ed informazioni in tempo reale. Nel caso dell’addestramento,
almeno parte di tali informazioni sono simulate, mentre nel caso di impiego in scenari
operativi reali, si tratta di informazioni importanti per la missione, come ad esempio la
presenza ed il posizionamento di mezzi e soldati nemici non visibili ad occhio nudo,
informazioni sulla temperatura percepita a distanza dai sensori termici, istruzioni sulla
strategia da adottare ricevute dai propri superiori, ecc.
45
Gli smart-glasses non hanno avuto un grande successo commerciale in ambito civile, pur
essendo disponibili già da alcuni anni, ma si prevede che possano essere molto più utili e
diffusi in ambito militare. Anche altri dispositivi indossabili (wearable), analoghi ai ben noti
smart-watches, possono contribuire all’aumento della realtà arricchendone la percezione
con informazioni aggiuntive e di allerta, somministrate nei casi opportuni tramite rilevamento
ed elaborazione del contesto operativo (context-awareness).
Affinché’ la realtà aumentata sia efficace, è necessario non solo che siano usati svariati
sensori installati localmente (es. caschi dei soldati) ma anche che vi sia una connessione
continua con radar e sistemi sensoriali remoti che offrano una visione e percezione della
realtà che sarebbe impossibile ottenere dalla posizione in cui si trova il soldato, e che
sarebbe altresì lento e complicato trasmettere attraverso gli strumenti tradizionali (es. radio
walkie-talkie, palmari, ecc.). L’ulteriore vantaggio sarebbe quello di lasciare completamente
libere le mani dei soldati, che non dovrebbero manipolare alcun dispositivo e che quindi
sarebbero più pronti a reagire a pericoli, imboscate, ecc. In altre parole, con l’AR si crea un
loop alimentato dinamicamente dalle informazioni e gli stimoli provenienti dai dispositivi
indossati, che transitano verso i sistemi centrali che a loro volta usano tali informazioni
(geolocalizzazione in primis) per elaborarne e trasmetterne di ulteriori sulla realtà circostante
da poter essere fornite ai soldati sul campo.
Un notevole complemento alla realtà aumentata è la possibilità di interazione gestuale
tramite guanti sensoriali o telecamera 3D frontale, possibilmente installata sullo stesso
visore. In tal modo, il sistema potrebbe rilevare modalità di interazione non verbale per
segnalare problemi ed emergenze oltre che per modificare la modalità di visualizzazione
delle informazioni (es. scrolling).
Analogamente a quanto sopra descritto, possono essere arricchiti anche i simulatori
esistenti (diciamo “tradizionali”) per l’addestramento alla guida di mezzi militari quali carri
armati ed aerei da guerra.
Un approccio del genere consente un addestramento accelerato, sicuro, e con
copertura automatica e ottimizzata delle condizioni operative reali. In altre parole, la
formalizzazione delle modalità di addestramento consente di creare automaticamente il set
minimo di condizioni operative significative che dovranno essere affrontate nelle situazioni
reali, in modo tale che tutte le condizioni operative non coperte direttamente in fase di
addestramento saranno facilmente riconducibili alle casistiche affrontate. Tale approccio
comprende aspetti rilevanti di simbiosi uomo-macchina e, pertanto, l’efficacia
dell’addestramento sarebbe legata non solo ai livelli di immersione ed al realismo
multimediale (legati alla qualità della riproduzione ambientale audio-video, tra cui livello di
46
dettaglio della grafica, prestazioni, fluidità e reattività del sistema, ecc.), ma anche alle
questioni psicologiche e cognitive connesse all’accettazione, all’ergonomia e all’utilizzo
pratico del sistema di simulazione.
Nel momento in cui la preparazione dei soldati venisse demandata prevalentemente o
esclusivamente ai sistemi intelligenti di tipo VR/AR, sarebbe necessario definire in modo
preciso limitazioni, confini e responsabilità per evitare di somministrare in modo sistematico
e continuativo istruzioni errate, incomplete o inopportune a gruppi elevati di discenti.
Ciò rappresenterebbe una criticità comune ai vari approcci alla AI dal punto di vista del
rischio in termini di validazione dell’efficacia e dell’eventuale esposizione ad impieghi
inappropriati.
Figura 24. Realtà virtuale e realtà aumentata per l’addestramento militare.
47
Il paradigma dei Digital Twins per sistemi autonomi predittivi
Un Digital Twin è una replica in ambiente virtuale di un’entità reale, realizzata allo
scopo di analisi e simulazione del comportamento reale durante la fase operativa del ciclo
di vita dell’entità [34] . Si distingue dai tradizionali modelli simulativi di tipo CAD (Computer
Aided Design), già da molto tempo usati in fase di progettazione e verifica, per la forte
adesione al sistema reale, con cui è possibile condividere lo stesso software di controllo e
per l’aggiornamento continuo dei parametri coerentemente con l’evoluzione nel tempo del
sistema reale e del suo ambiente circostante. Si tratta di un paradigma innovativo nato in
ambienti industriali manifatturieri a scopo di diagnostica e simulazione, ma che si presta a
notevoli evoluzioni nel contesto dei sistemi autonomi. La possibilità di simulare in tempo
reale l’evoluzione propria e delle entità con cui si interagisce, infatti, aggiunge un elemento
importante di consapevolezza all’intelligenza artificiale, importantissimo soprattutto a scopo
predittivo.
Si immagini, ad esempio, un moderno veicolo e guida autonoma (self-driving).
Come osservato nell’introduzione, tale veicolo viene considerato “intelligente” in quanto in
grado di accelerare, rallentare, stabilire la propria traiettoria, ecc., in funzione dell’ambiente
circostante e degli altri veicoli che lo precedono o interferiscono potenzialmente con la sua
traiettoria. Un veicolo di tal genere è considerato più reattivo e sicuro di uno a controllo
umano, in quanto dotato di caratteristiche difficili o impossibili da ottenere per gli esseri
umani, quali la visione in condizioni di totale oscurità, realizzata tramite radar e/o telecamere
termiche, tempi di risposta agli stimoli dell’ordine delle frazioni di secondo, ecc. Non c’è
dubbio che un tale veicolo possa evitare delle collisioni in modo estremamente più sicuro
rispetto ad un pilota umano. Eppure, confrontato con l’intelligenza umana, un veicolo
autonomo ha ancora enormi limiti nella gestione delle situazioni impreviste in fase
progettuale. In linea teorica, il veicolo potrebbe essere dotato di capacità di apprendimento,
ma queste non vengono tipicamente implementate in quanto la maggior parte degli standard
di sicurezza attuali prevede la completa predicibilità del comportamento del sistema allo
scopo di verifica, validazione, assessment e certificazione. Un sistema di auto-
apprendimento delle funzioni di sicurezza andrebbe a minare tale predicibilità: chi ci
assicura, infatti, che il sistema stia apprendendo comportamenti corretti che non vadano a
minare la sicurezza di altre entità per garantire la propria? Si tratta di apparenti paradossi e
dilemmi difficilmente risolvibili. Molto più semplicemente, i sistemi autonomi possono essere
arricchiti con funzionalità predittive implementando opportuni modelli (Digital Twins,
appunto) di se stessi, delle entità interagenti e dell’ambiente che li circonda.
48
Così ad esempio, un veicolo a guida autonoma potrebbe accorgersi di comportamenti
anomali di altri veicoli, “sospettare” che questi siano fuori controllo, allertare altre entità del
pericolo rilevato e adottare comportamenti prudenti come conseguenza. Quanto descritto
risulta estremamente facile per un umano ma molto difficile se non impossibile, almeno allo
stato attuale della tecnologia, per una macchina come un veicolo a guida autonoma. In tale
contesto, il paradigma dei Digital Twin potrebbe aiutare a compiere un passo in avanti nella
giusta direzione.
Nell’ipotesi che un modello Digital Twin di una o più entità reali sia disponibile o
realizzabile, vi sono diversi altri ostacoli che possono prevenirne l’effettiva implementazione.
Trattandosi di ostacoli tecnologici, essi sono teoricamente superabili con l’evoluzione stessa
delle tecnologie. Ad esempio, la Figura 25 riporta uno schema delle possibili collocazioni
dei Digital Twin, da non considerare mutuamente esclusive. A livello cosiddetto “edge” (che
potrebbe tradursi liberamente come “terminale”), i modelli Digital Twin vengono simulati ed
operati sulle entità stesse, allo scopo di prevedere la propria evoluzione e quella
dell’ambiente che le circonda per prevenire guasti ed incidenti. I modelli Digital Twin si
possono prestare, infatti, a simulazioni accelerate ed analisi predittive di tipo “what if?” (cosa
accadrebbe se...). Come accennato, ciò risulterebbe importantissimo allo scopo di prendere
delle decisioni anche a fronte di situazioni impreviste, validare le conseguenze in base a
predeterminati requisiti funzionali e RAMS (Reliability, Availability, Maintainability, Safety) e,
pertanto, garantire l’integrità e la sicurezza del sistema complessivo.
Un problema potenziale della collocazione a livello “edge” sono le ridotte capacità
computazionali (CPU, memoria, ecc.) di cui sono dotati i dispositivi da campo allo scopo di
ridurre costi, dimensioni e consumi energetici, soprattutto in caso di alimentazione
autonoma (batterie, pannelli fotovoltaici, ecc.). Tale situazione potrebbe cambiare in futuro,
dato il continuo processo di miniaturizzazione che consentirà di avere dispositivi mobili con
capacità computazionali sempre crescenti. Il vantaggio è invece la possibilità di avere
completa autonomia anche quando risulta indisponibile una connessione di rete. Ciò risulta
particolarmente importante quando si opera in ambienti militari e potenzialmente ostili.
La collocazione attualmente più naturale è quella a livello “cloud”, in modo da avere a
disposizione capacità computazionali e spazio di archiviazione dinamicamente espandibili
e virtualmente illimitati. Per contro, la collocazione a livello “cloud” richiede una connettività
di rete sufficientemente continua e performante, oltre che garanzie di sicurezza e
riservatezza elevate. Una soluzione intermedia particolarmente adatta all’ambito militare è
quella della collocazione a livello “fog”, che è semplicemente un livello intermedio che
consente di ottenere un giusto compromesso tra i due estremi “edge” e “cloud”.
49
Qualunque sia la collocazione dei Digital Twin, ciascuna entità sarebbe in grado di
incorporare la conoscenza, più o meno dettagliata, delle entità con cui interagisce e di
aggiornarla ed arricchirla dinamicamente nel tempo tramite opportuni meccanismi di auto-
apprendimento (self-learning).
Il paradigma Digital Twin si sposa con l’Internet of Things (IoT), e più specificamente
in ambito militare con la Internet of Battlefield Things (IoBT, vedasi la Figura 26). In tali
scenari, infatti, costituiti da una molteplicità di apparati eterogenei e cooperanti, saranno
sempre più importanti modelli strutturali e comportamentali da eseguire in real-time destinati
a realizzare funzionalità di auto-diagnostica (self-diagnostics) e pianificare processi di auto-
riparazione (self-healing).
Ricerche pionieristiche che anticipano una tale visione risalgono alla fine degli anni 90
e più recentemente hanno indirizzato aspetti meta-cognitivi quali la consapevolezza delle
proprie capacità e dei propri limiti, nonché’ la cognizione distribuita nei sistemi reattivi,
autonomi e auto-adattativi [27]. La ricerca in tale ambito si basa su approcci ad agenti mobili,
ontologie e modelli semantici, ma presenta ancora numerose sfide e problemi aperti.
I Digital Twin possono rispondere a tali sfide introducendo un paradigma che ben si presta
a rispondere alle esigenze della ricerca in ambito meta-cognitivo, laddove i sistemi autonomi
possono imitare e potenziare l’intelligenza umana nello sviluppare dei modelli della realtà
allo scopo di prevedere i comportamenti delle entità che li circondano ed adattare di
conseguenza le loro azioni.
50
CPS Entity X
Digital Twin X
Digital Twin Y
Digital Twin Z
...
CPS Entity Y
Digital Twin X
Digital Twin Y
Digital Twin Z
...
CPS Entity Z
Digital Twin X
Digital Twin Y
Digital Twin Z ...
...
EDGE COMPUTING LEVEL(embedded systems,
local devices)
LAN/MAN Server(s)
Digital Twin X
Digital Twin Y
Digital Twin Z
...
...
FOG COMPUTING LEVEL(local severs)
Cloud Server(s)
Digital Twin X
Digital Twin Y
Digital Twin Z
...
CLOUD COMPUTING LEVEL(remote servers)
...
...
Figura 25. Possibilità di collocazione degli ambienti virtuali per la simulazione dei Digital
Twins.
51
Figura 26. La Internet of Things applicata ai sistemi militari (IoBT, Internet of Battlefield
Things).
52
Applicazioni
Abbiamo menzionato nel corso di questa ricerca diverse applicazioni in cui
l’intelligenza artificiale può essere applicata ai sistemi autonomi in ambito militare, con
particolare riferimento alla robotica (posizionata verso la base della piramide gerarchica) e
ai centri di comando e controllo (posizionati verso l’apice della piramide gerarchica).
Per quanto riguarda la robotica militare, la ricerca si muove in una direzione del tutto analoga
a quella della robotica civile e dei veicoli a guida autonoma in ambiti safety-critical, in quanto
ci si pone problemi simili riguardo agli aspetti di certificazione di sicurezza, etici e normativi.
Per quanto riguarda l’autonomia o semi-autonomia (DSS) decisionale a livello di centri di
comando e controllo, l’approccio che può essere applicato in ambito militare presenta degli
aspetti di specificità ed originalità che lo differenzia dalla maggior parte delle applicazioni
civili.
Prendiamo ad esempio una delle più note e frequenti procedure militari che si
applicano in ambito aeronautico, ovvero quella cosiddetta di “scramble” [4]. Lo “scramble”
prevede il decollo immediato di un caccia intercettore per identificare un velivolo sconosciuto
(anche noto come “zombie”) in uno spazio aereo nazionale controllato. La procedura venne
standardizzata dalla NATO durante la guerra fredda. Una volta individuata una potenziale
minaccia, il segnale di Quick Reaction Alert viene ricevuto e analizzato dal Combined Air
Operation Center (CAOC) della NATO, che impartisce l’ordine di scramble ai caccia
intercettori suddivisi per ogni spazio aereo nazionale e settore già in preallerta – il cosiddetto
Quick Reaction Alert – oppure decide di passare l’azione alle batteria missilistiche antiaeree
della NATO Integrated Air and Missile Defence. In Italia la difesa dello spazio aereo
nazionale è affidata ad alcune squadriglie dell’Aeronautica Militare (si veda anche la Figura
22). Ogni squadriglia ha sempre una coppia di intercettori pronti al decollo in tempo massimo
di 15 minuti dal segnale di Quick Reaction Alert, 24 ore al giorno, 365 giorni l’anno.
L’ordine viene impartito non appena il CAOC e, nel caso italiano, i radar entrano in contatto
con il segnale di una traccia sconosciuta non identificata. Nella maggior parte dei casi, i
velivoli che ricevono l’ordine di scramble si trovano ad intercettare voli di linea senza
identificazione o dei quali si è perso il segnale radar, velivoli con problemi al transponder o
voli civili che hanno subito un dirottamento. Poiché i radar dell'aereo intercettore sono
efficaci sino ad una certa distanza, i piloti degli intercettori seguono istruzioni di rotta
continua fornite da una postazione a terra denominata "Guida Caccia", in quanto lo "zombie"
in navigazione si può spostare su rotte diverse. In questo modo gli intercettori sono
opportunamente guidati sino a quando i radar di bordo intercettano lo "zombie", il quale
53
viene preso in consegna dagli intercettori, assistito (se amico), oppure, se sospetto, viene
fatto atterrare su una base aerea ed ispezionato. In caso di rifiuto viene abbattuto.
La complessità di tale procedura e la criticità e tempestività richiesti al processo
decisionale si prestano particolarmente ad una possibile automazione. In Figura 27
riportiamo un modello molto esemplificato della procedura di scramble realizzato tramite
UML Activity Diagrams. Sebbene la procedura non rappresenti esattamente quella seguita
dai velivoli dell’Aeronautica Militare, tale diagramma mostra alcuni aspetti peculiari della
modellazione delle azioni e delle decisioni in modo (semi)formale. In particolare, i blocchi
decisionali hanno una rappresentazione analoga a quella dei diagrammi di flusso, in cui
viene verificata formalmente una semplice condizione logica da cui deriva l’evoluzione della
procedura. Oltre a questi, esistono le barre di “fork” e “join” (i rettangoli blue senza testo)
che consentono di gestire rispettivamente il parallelismo e la sincronizzazione tra processi
paralleli, laddove sono necessari due o più flussi di azioni che riguardano diversi attori
coinvolti nel processo contemporaneamente. In tal modo, utilizzando una rappresentazione
procedurale semplice da realizzare ed interpretare, è possibile fornire un input di tipo
machine readable (letteralmente: “leggibile da una macchina”), ovvero una base di
conoscenza che consente ad un sistema automatico di reagire in modo autonomo o per lo
meno governare in tempo reale il processo decisionale degli operatori somministrando loro,
passo dopo passo, le operazioni da effettuare e ricevendo un opportuno riscontro
(acknowledgement) sull’azione realizzata.
Un approccio del genere, che ricade nella categoria più generale dei sistemi di
“workflow management” (gestione dei flussi di lavoro), ha molteplici benefici giacche’
consente una facile verifica ed aggiornamento delle procedure in modo da eliminare
qualsiasi ambiguità interpretativa ed allo stesso tempo predispone elevati livelli di
“automatismo controllato”, che rappresenta un buon compromesso tra la totale autonomia,
che può facilmente andare fuori controllo e l’approccio completamente manuale, soggetto a
possibili errori e ritardi.
Per contro, un approccio del genere va combinato con altri approcci di tipo
euristico/probabilistico, quali quelli di information fusion (già menzionati) sui dati acquisiti, al
fine di acquisire le capacità di evoluzione ed adattività che caratterizzano i sistemi
propriamente “intelligenti”.
54
Try to contact suspect aircraft
safe response?
start of scramble procedure
end of scramble procedure
yes
no
inform stakeholderscommand immediate
takeoff
monitor and escort
real threat?
bring down aircraft
yes
no
select the closer air
base
re-try to contact and observe
contact all people
responsible for sky
security
Figura 27. Esempio di modello UML Activity Diagram applicato alla procedura militare
cosiddetta di “scramble” (semplificata)
55
Principali problematiche ed implicazioni pratiche
Abbiamo visto nei precedenti paragrafi come la Difesa possa beneficiare dei diversi
paradigmi dell’AI applicata ai sistemi autonomi in svariati contesti operativi. I vantaggi
potenziali sono ben noti: le macchine sono più robuste e veloci, non si stancano e non si
distraggono, rispettano gli ordini, non si tirano indietro, difficilmente sbagliano se ben
progettate e soprattutto hanno un valore inferiore di quello associato ad una vita umana.
Macchine intelligenti ed autonome sono anche in grado di adattarsi al contesto operando in
situazioni diverse da quelle nominali purché dotate della capacità di apprendere dalla
propria esperienza e fronteggiare imprevisti. Mentre per le macchine più tradizionali i
vantaggi sono dimostrati in numerosi anni di impiego pratico, per quelle intelligenti ed
autonome non si ha ancora un’esperienza tale da poter supportare le precedenti
affermazioni. Riepiloghiamo di seguito le principali problematiche che possono insorgere e
devono essere affrontate:
Approvvigionamento
Le nuove macchine da utilizzare in contesti militari dovrebbero essere prodotte
(progettate, sviluppate, verificate, manutenute) da aziende e personale certificati secondo
tutti i più moderni standard di qualità e sicurezza (ISO 27001, CISSP, ecc.), oltre che
dotati di opportuni livelli NOS (Nulla Osta Sicurezza). I prodotti dovrebbero essere a loro
volta certificati secondo gli standard applicabili di affidabilità e sicurezza (es. ISO/IEC
15408), a livelli sufficientemente alti di EAL (Evaluation Assurance Level), in funzione dei
rischi legati alla specifica applicazione. Ciò ridurrà al minimo il rischio che si presentino
guasti di tipo casuale/naturale e attacchi di tipo intenzionale/doloso che possano minare
la sicurezza nell’operato delle macchine. Le macchine approvvigionate dovranno
rispettare, compatibilmente con l’applicazione militare, anche gli standard applicabili di
tipo etico come quelli in fase di sviluppo da parte dell’IEEE Standards Association (es.
IEEE P7008, P7009, P7010) [24].
Apprendimento
L’apprendimento dovrebbe essere sempre supervisionato ed avvenire in condizioni
controllate al fine di scongiurare minacce di indottrinamento malizioso. La modalità di
apprendimento dovrebbe essere validata così come dovrebbero essere collaudate
opportunamente le reazioni in condizioni operative nominali e non nominali. È infatti facile
per una macchina essere tratta in inganno da dati storici non correttamente interpretati.
56
L’esempio ironico che viene a volte menzionato in questi casi è quello dell’esercito di
robot (autonomi ed intelligenti) che viene facilmente sconfitto da un esercito di esseri
umani in quanto la strategia dei robot, essendo basata su dati storici di battaglie vinte in
passato, prevedeva l’uso di armi rudimentali quali lance e sassi (Figura 28). Il paradosso
deriva dall’assenza di capacità critica nell’interpretazione delle informazioni, che richiede
un’intelligenza di livello superiore (si pensi al proliferare del fenomeno delle “fake news”
che mettono in difficoltà le capacità critiche anche negli esseri umani).
Controllo e supervisione
L’interazione uomo-macchina per sistemi autonomi diventa particolarmente critico, in
quanto non si tratta soltanto di una questione di (tele)comando, come avviene per la
stragrande maggioranza delle macchine attuali. Infatti, una cosa è comandare un’azione
specifica come “accelera, vira, spara, ecc.”, come nel caso del pilotaggio remoto, ben
altra cosa è trasmettere comandi, istruzioni e priorità ad una macchina autonoma, che
deve interpretarle correttamente in modo da tradurle in azioni opportune, da
intraprendere subito e da tenere sempre ben presenti nell’affrontare situazioni impreviste.
Inoltre, laddove possibile ed opportuno, dovrebbe essere prevista una supervisione delle
decisioni critiche prese autonomamente dalle macchine al fine di approvazione/
disapprovazione, soprattutto in caso di presenza di “dilemmi” (es. quale obiettivo
sacrificare quando non esiste una soluzione ottima che soddisfi appieno i criteri
decisionali di base e/o gli ordini ricevuti). Il controllo e la supervisione sono
particolarmente importanti per le macchine intelligenti perché permettono di sviluppare
l’apprendimento esperenziale anche nelle fasi operative, qualora tale funzionalità sia
prevista in fase di progettazione e abilitata in fase di gestione.
Procedure e scenari operativi
Le procedure tradizionali dovranno essere riviste, adeguate ed estese, al fine di tenere
in conto l’adozione di macchine intelligenti ed autonome negli scenari operativi.
Bisognerà definire, in funzione del livello di intelligenza ed autonomia, oltre che del livello
di certificazione di sicurezza raggiunto dalle macchine, quali saranno i limiti di impiego e
come saranno suddivise le responsabilità tra i diversi attori coinvolti (progettisti,
manutentori, controllori, ecc.). È particolarmente importante definire le modalità di
interazione e collaborazione tra soldati umani e cyber-soldati al fine di instaurare un
57
rapporto di fiducia e prevenire problemi di ambiguità di comunicazione e fraintendimenti
che possono portare a difficoltà di cooperazione e convivenza. È preferibile limitare
inizialmente l’autonomia delle macchine in modo da consentire un passaggio graduale
nell’affiancamento uomo-macchina, finche’ non si sarà raggiunto un adeguato livello di
integrazione negli scenari operativi e nelle procedure esistenti.
Responsabilità
Nel caso in cui si verifichi un incidente, dovrà essere agevole individuarne le
responsabilità. A tal scopo, oltre a tutti i requisiti di correttezza e verifica formale richiesti
dal processo di certificazione rispetto agli standard applicabili (pre-condizioni), dovranno
essere aggiunte delle post-condizioni, che verificheranno le decisioni prese
autonomamente rispetto a condizioni di sicurezza generiche (indipendenti dal contesto)
e specifiche (dipendenti dal contesto). Se non si individueranno responsabilità
nell’operato delle macchine in termini di errori nelle fasi di progettazione e apprendimento
e se al tempo stesso tutte le pre-condizioni e post-condizioni saranno rispettate, allora la
macchina avrà sbagliato tentando di fare il proprio meglio alla stregua di un essere umano
(incidente inevitabile) oppure avrà eseguito degli ordini intrinsecamente errati
(responsabilità di un superiore).
Non abbiamo menzionato in questo riepilogo le problematiche di tipo metodologico e
tecnologico legate allo sviluppo di macchine intelligenti e sistemi autonomi, preferendo
concentrarci sulla loro adozione in un contesto critico quale quello militare. È però
importante sottolineare come la maturità tecnologica di tali sistemi ed il relativo processo di
sviluppo e validazione devono essere valutati attentamente, in funzione della criticità
dell’applicazione e del livello di intelligenza ed autonomia richiesti. Vi sono, infatti, diverse
applicazioni meno critiche anche in ambito militare (es. sorveglianza, pattugliamento, ecc.),
in cui non è necessario il controllo di armi. Tali applicazioni sono quelle che meglio si
candidano alla sperimentazione di nuove tecnologie che, una volta assestate, possono
essere progressivamente estese e validate per un’adozione più ampia e per l’impiego in
contesti di maggiore criticità. Allo stato attuale è solo possibile fare delle previsioni
basandosi sul cosidetto Hype Cycle delle tecnologie emergenti (Figura 29) e sulle previsioni
di esperti, come sintetizzato nel riferimento bibliografico [34] . Il grafo mostra il ciclo di vita
delle tecnologie dalle fasi di concezione (sinistra) a quelle di maturità e adozione diffusa
(verso destra).
58
In base alle previsioni aggiornate ad Agosto 2018, si prevede il seguente sviluppo delle
tecnologie abilitanti in qualche modo rilevanti per il presente studio:
tra i 2 e i 5 anni
fase “technology trigger”: 5G, Deep Neural Network ASICs;
fase “peak of inflated expectations”: Deep Neural Nets (Deep Learning), Virtual
Assistants;
tra i 5 e i 10 anni
fase “technology trigger”: Knowledge Graphs, Neuromorphic Hardware, Blockchain for
Data Security, Edge AI, Conversational AI Platform, Self-Healing System Technology,
Quantum Computing, AI PaaS, Smart Robots;
fase “peak of inflated expectations”: Autonomous Mobile Robots, Smart Workspace,
Biochips, Digital Twin, Carbon Nanotube, IoT Platform, Silicon Anode Batteries,
Blockchain;
fase “through of disillusionment”: Connected Home, Mixed Reality, Augmented Reality;
oltre i 10 anni
fase “technology trigger”: Biotech – Cultured or Artificial Tissue, Flying Autonomous
Vehicles, Smart Dust, Artificial General Intelligence, 4D Printing, Human
Augmentation, Autonomous Driving Level 5, Volumetric Displays
fase “peak of inflated expectations”: Brain Computer Interface
fase “through of disillusionment”: Autonomous Driving Level 4
Pertanto, secondo le previsioni di Gartner, quella della realtà aumentata è una delle
aree tecnologiche da monitorare più attentamente in quanto ci si aspetta che un livello di
maturità sufficientemente elevato possa essere raggiunto entro i prossimi 10 anni.
Quello dell’AI risulta invece uno dei trend di maggiore importanza, comprendendo numerose
tecnologie emergenti quali la guida autonoma, i velivoli autonomi e gli smart robots.
59
Figura 28. Una vignetta che illustra in modo ironico i rischi dell’applicazione del machine
learning.
Figura 29. Il cosiddetto hype cycle per la previsione dei livelli di maturità delle tecnologie
emergenti.
60
Conclusioni e sviluppi futuri
Nella presente ricerca abbiamo analizzato gli aspetti salienti dell’intelligenza artificiale
applicata ai sistemi autonomi in applicazioni di difesa. Abbiamo innanzitutto notato che non
esistono definizioni univoche di “intelligenza” ed “autonomia” e che esistono diversi livelli e
sfumature possibili. Dall’analisi di diverse tecniche e strategie rilevanti in questo settore,
siamo giunti alla conclusione che ambiti caratterizzati da un elevato livello di complessità e
criticità, quali quello militare, richiedono una combinazione sinergica di diversi approcci usati
in modo congiunto ed olistico. La gestione della complessità non può che seguire un
approccio di tipo “divide et impera”, ovvero di tipo modulare e composizionale, con la
stratificazione e decomposizione dei livelli decisionali della piramide gerarchica di comando
e controllo. Ogni elemento, dal veicolo autonomo al soldato “aumentato”, avrà una sua
intelligenza e capacità decisionale che dovrà essere opportunamente istruita/allenata e
controllata in modo da evitare incidenti e problematiche di tipo etico o normativo. In altre
parole, è essenziale fissare alcuni “paletti” per limitare la libertà delle macchine ed elementi
di controllo che consentano, sia off-line (in fase di progetto e verifica) sia on-line (in fase
operativa), di verificare il rispetto di determinate condizioni di sicurezza. Tale verifica del
processo decisionale (o anche del piano strategico) potrà essere effettuato in modo sia
automatico, ad esempio tramite tecniche di run-time model-checking, o manuale, laddove
decisioni considerate critiche sono proposte autonomamente dalle macchine, ma
demandate all’approvazione degli operatori umani come precondizione alla loro attuazione.
Quello militare è storicamente un ambito di ricerca che ha anticipato numerose
conquiste a livello tecnologico che nel tempo sono state trasferite in ambito civile.
Negli ultimi anni questo trend si sta capovolgendo attestando la lead dello sviluppo
tecnologico all'industria, con la Difesa in supporto ad essa e fruitrice dei suoi benefici
innovativi. Tuttavia, relativamente alle tematiche trattate in questa ricerca, anche quelle di
più ampio respiro, ci si aspetta che molti sviluppi pionieristici dei cosiddetti Symbiotic
Autonomous Systems si concretizzeranno nel ristretto ambito della difesa, attraverso
investimenti specifici e sperimentazioni ad hoc [34]. Possiamo menzionare, ad esempio, le
tematiche degli “umani aumentati” (augmented humans), dotati di protesi tecnologiche ad
elevate prestazioni capaci di potenziarne le capacità sensoriali e motorie, che vedranno
molto probabilmente la luce in linea con le evoluzioni della ricerca sul “super soldato” (vedasi
la Figura 30). Un’altra ricerca, particolarmente suggestiva e sfidante, è quella dei cosiddetti
“cani robotici” (Figura 31), ovvero cobots di tipo UGV capaci di affrontare percorsi
61
estremamente impervi, e pertanto dotati di elevatissime capacità di adattamento e
coordinamento, oltre che di adeguate caratteristiche di intelligenza ed autonomia [5].
Parallelamente alle evoluzioni tecnologiche, è prevedibile che molte energie verranno
profuse nella definizione di linee guida e standard internazionali oltre che nelle rilevanti
implicazioni etiche e legali [25].
Figura 30. “Super soldato” dotato di esoscheletro tecnologico.
Figura 31. Un prototipo di cane militare robotico.
62
Abbreviazioni ed acronimi
Acronimo Espansione
ADC Analog to Digital Converter
AI Artificial Intelligence
ANN Artificial Neural Network
API Application Programming Interface
AR Augmented Reality
ARPANET Advanced Research Projects Agency NETwork
AS Autonomous Systems
ASIC Application-Specific Integrated Circuit
BN Bayesian Network
C2 Command & Control
C3 Command, Control & Communications
CAD Computer Aided Design
CAOC Combined Air Operation Center
CBRNe Chimico Batteriologico Radiologico Nucleare
esplosivo
CERT Computer Emergency Response Team
CISSP Certified Information Systems Security
Professional
CPS Cyber-Physical Systems
CPU Central Processing Unit
DAC Digital to Analog Converter
DAG Direct Acyclic Graph
DBMS Data Base Management System
DSS Decision Support Systems
EAL Evaluation Assurance Level
ES Embedded Systems
HCI Human Computer Interface
HMI Human Machine Interface
HMM Hidden Markov Model
I/O Input / Output
ICT Information & Communications Technology
63
IEEE Institute of Electrical and Electronics Engineers
IF Information Fusion
IoBT Internet of Battlefield Things
IoT Internet of Things
IoTH Internet of Things and Humans
IP Internet Protocol
IR InfraRed
IT Information Technology
LAN Local Area Network
MAN Metropolitan Area Network
MANET Mobile Ad-hoc NETwork
MEMS Micro Electro-Mechanical Systems
ML Machine Learning
NATO North Atlantic Treaty Organization
NBCR Nucleare Biologico Chimico Radiologico
NCIA NATO Communications and Information Agency
NOS Nulla Osta Sicurezza
OCC Operations Control Center
PaaS Platform as a Service
PDCA Plan-Do-Check-Act (ciclo di Deming)
PIN Personal Identification Number
PSIM Physical Security Information Management
RACI Responsible-Accountable-Consulted-Informed
RAM Random Access Memory
RAMS Reliability, Availability, Maintainability, Safety
ROM Read Only Memory
RT Real-Time
SAS Symbiotic Autonomous Systems
SDE Software Defined Everything
SDK Software Development Kit
SDN Software Defined Networks
SIEM Security Information and Event Management
SOC Security Operations Center
64
SWORDS Special Weapons Observation Reconnaissance
Detection System
UAV Unmanned Aerial Vehicle
UGV Unmanned Ground Vehicle
UML Unified Modeling Language
VCA Video Content Analytics
VoIP Voice Over IP
VR Virtual Reality
Wi-Fi Wireless
WLAN Wireless Local Area Network
WSN Wireless Sensor Network
65
Bibliografia
1. ACM Policy Council: Statement on Algorithmic Transparency and Accountability, 2017
2. Allen, G., & Chan, T. (2017). Artificial Intelligence and National Security. Belfer Center
for Science and International Affair. Retrieved from
https://www.belfercenter.org/publication/artificial-intelligence-and-national-security
3. Allen, G., at al. (2017). The military machine. Proceedings of the 4th ACM Workshop on
Security and Artificial Intelligence - AISec’11, 25–43. https://doi.org/10.2777/786515
4. Bartoccini, D. (2018). Cos'è la procedura di "scramble" che difende i cieli italiani. [online]
Gli occhi della guerra. Available at: http://www.occhidellaguerra.it/ecco-cose-la-
procedura-di-scramble-e-chi-difende-i-nostri-cieli/ [Accessed 24 Oct. 2018].
5. Bostondynamics.com. (2018). BigDog | Boston Dynamics. [online] Available at:
https://www.bostondynamics.com/bigdog [Accessed 5 Nov. 2018].
6. Certain Aspects of Military Applications of Robotics in the Future Missions. (2016), 25–
43. Retrieved from https://records.viu.ca/~johnstoi/homer/iliad18.htm,
7. Cimbala, S. J. (1987). Artificial intelligence and national security, xiii, 223. Retrieved
from www.crs.gov
8. CNR (2018). Stem materials. [online] Foresight.cnr.it. Available at:
http://www.foresight.cnr.it/materials [Accessed 5 Nov. 2018].
9. De Landa, M. (1991). War in the Age of Intelligent Machines. Zone Books, New York,
NY, USA.
10. De Spiegeleire, S., Maas, M., & Sweijs, T. (2017). Artificial Intelligence and the Future
of Defense – Strategic Implications for Small- and Medium-Sized Force Providers. The
Hague Centre for Strategic Studies (HCSS). Retrieved from
http://www.hcss.nl/report/artificial-intelligence-and-future-defense
11. Eidgenossenschaft, S., at al. (2017). What we see on the horizon The Impact of
Autonomous Weapons Systems.
12. Etzioni, A., & Etzioni, O. (2017). Pros and Cons of Autonomous Weapons Systems.
Military Review, (June), 72–81. https://doi.org/10.1080/15027570.2010.537903
13. European Group on Ethics in Science and New Technologies. (2018). Statement on
Artificial Intelligence, Robotics and ‘Autonomous’ Systems, 24.
https://doi.org/10.2777/786515
14. Fantechi A, Flammini F, Gnesi A (2012). Formal Methods for Intelligent Transportation
Systems. In: (edited by): Bernhard Steffen, Tiziana Margaria, Proc. 5th International
Symposium On Leveraging Applications of Formal Methods, Verification and Validation
66
(ISoLA’12). LECTURE NOTES IN COMPUTER SCIENCE, vol. 7610, p. 187-189,
BERLIN HEIDELBERG:Springer-Verlag, ISBN: 978-3-642-34031-4, ISSN: 0302-9743,
Amirandes, Heraclion, Crete, 15-18 October 2012, doi: 10.1007/978-3-642-34032-1_19
15. Flammini F, Pappalardo A, Vittorini V (2013). Information Fusion e sorveglianza.
MONDO DIGITALE, vol. 47, p. 1-18, ISSN: 1720-898X
16. Flammini F, Pragliola C, Pappalardo A, Vittorini V (2011). A robust approach for on-line
and off-line threat detection based on Event Tree similarity analysis. In: Advanced Video
and Signal-Based Surveillance (AVSS), 2011 8th IEEE International Conference on.
Klagenfurt, Austria, August 29-30, 2011, p. 414-419, Los Alamitos, CA:IEEE Computer
Society, ISBN: 978-145770845-9, doi: 10.1109/AVSS.2011.6027364
17. Flammini, F. (2012). Critical Infrastructure Security: Assessment, Prevention, Detection,
Response. WIT Press, UK.
18. Flammini, F. (2018). Resilience of Cyber-Physical Systems: From Risk Modeling to
Threat Counteraction. Springer International Publishing. ISBN 978-3-319-95597-1
19. Flammini, F., Gaglione, A., Mazzocca, N., Moscato, V., & Pragliola, C. (2009). On-line
integration and reasoning of multi-sensor data to enhance infrastructure surveillance.
Journal of Information Assurance and Security, 4, 183–191.
20. Flammini, F., Gaglione, A., Mazzocca, N., Moscato, V., & Pragliola, C. (2009). Wireless
sensor data fusion for critical infrastructure security. Advances in Soft Computing (Vol.
53). https://doi.org/10.1007/978-3-540-88181-0_12
21. Flammini, F., Setola, R. and Franceschetti, G. (2013). Effective surveillance for
homeland security. Boca Raton: CRC Press, Taylor & Francis Group.
22. House of parliament (2015). Automation in Military Operations, (511), 1–5.
23. Iantovics, L., Niazi, M., Gligor, A., Szilagyi, S., Dehmer, M., Emmert-Streib, F., &
Tokody, D. (2018). CoopRA Algorithm for Universal Characterization of the
Experimental Evaluation Results of Cooperative Multiagent Systems. BRAIN. Broad
Research In Artificial Intelligence And Neuroscience, 9(3), pp. 37-49
24. IEEE Standards Association (2018). Ethically Aligned Design, Version 2 (EADv2) |
[online] Available at: https://ethicsinaction.ieee.org/ [Accessed 4 Nov. 2018].
25. Indian Defence Review. (2018). Augmented Soldier: Ethical, Social & Legal Perspective.
[online] Available at: http://www.indiandefencereview.com/spotlights/augmented-
soldier-ethical-social-legal-perspective/ [Accessed 24 Oct. 2018].
26. Informatics Europe and EUACM: When Computers Decide: European
Recommendations on Machine-Learned Automated Decision Making, 2018
67
27. Kennedy, C. M. (2015). Meta-Cognition for Self-Managing Systems: Bridging the Gap
between Cognitive Modelling and Software Engineering Background: Cognitive
Architectures, 1(May), 1–13.
28. Kennedy, C. M., & Sloman, A. (2003). Autonomous recovery from hostile code insertion
using distributed reflection. Cognitive Systems Research, 4(2), 89–117.
https://doi.org/10.1016/S1389-0417(02)00096-7
29. Morel, B. (2011). Artificial intelligence and the future of cybersecurity. Proceedings of
the 4th ACM Workshop on Security and Artificial Intelligence - AISec ’11, (January), 93.
https://doi.org/10.1145/2046684.2046699
30. Parker, L. E. (2007). Distributed Intelligence: Overview of the Field and its Application
in Multi-Robot Systems, 1–6.
31. Pham, Q. C., Madhavan, R., Righetti, L., Smart, W., & Chatila, R. (2018). The Impact of
Robotics and Automation on Working Conditions and Employment. IEEE Robotics and
Automation Magazine, 25(2), 126–128. https://doi.org/10.1109/MRA.2018.2822058
32. Righetti, B. L., Pham, Q., Madhavan, R., & Chatila, R. (2018). Ethical, Legal, and
Societal Issues, Lethal Autonomous Weapon Systems, 123–126.
https://doi.org/10.1109/MRA.2017.2787267
33. Ruggieri, M. (2018). Keynote Speaker | ISSE 2018. [online] 2018.ieeeisse.org. Available
at: http://2018.ieeeisse.org/pages/keynote-speaker [Accessed 5 Nov. 2018].
34. Dambrot, S. M., de Kerchove, D., Flammini, F., Kinsner, W., MacDonald Glenn, L., &
Saracco, R. (2018). Symbiotic Autonomous Systems: An FDC Initiative - White Paper
II. IEEE Press.
35. Scheutz, M., & Kramer, J. (2007). Reflection and reasoning mechanisms for failure
detection and recovery in a distributed robotic architecture for complex robots.
Proceedings - IEEE International Conference on Robotics and Automation, (1), 3699–
3704. https://doi.org/10.1109/ROBOT.2007.364045
36. Schirmer, S., Torens, C., Nikodem, F., & Dauer, J. (2018). Considerations of Artificial
Intelligence Safety Engineering for Unmanned Aircraft. In B. Gallina, A. Skavhaug, E.
Schoitsch, & F. Bitsch (Eds.), Computer Safety, Reliability, and Security (pp. 465–472).
Springer International Publing.
37. Shafaei, S., Kugele, S., Osman, M. H., & Knoll, A. (2018). Uncertainty in Machine
Learning: A Safety Perspective on Autonomous Driving. In B. Gallina, A. Skavhaug, E.
Schoitsch, & F. Bitsch (Eds.), Computer Safety, Reliability, and Security (pp. 458–464).
Springer International Publishing.
68
38. Tokody, D., Flammini, F. (2017). Smart systems for the protection of individuals. Key
Engineering Materials (Vol. 755).
https://doi.org/10.4028/www.scientific.net/KEM.755.190
39. Tokody, D., Flammini, F., et al. (2018). Complex, Resilient and Smart Systems. In:
(edited by): F. Flammini, Resilience of Cyber-Physical Systems: From Risk Modeling to
Threat Counteraction, p. 1-21, Springer, ISBN 978-3-319-95597-1, ISSN: 1613-5113
40. Verdiesen, I., Dignum, V., & Rahwan, I. (2018). Design Requirements for a Moral
Machine for Autonomous Weapons. In B. Gallina, A. Skavhaug, E. Schoitsch, & F.
Bitsch (Eds.), Computer Safety, Reliability, and Security (pp. 494–506). Springer
International Publishing.
41. WAISE. (2018). First International Workshop on Artificial Intelligence Safety
Engineering. [online] Available at: https://www.waise2018.com/ [Accessed 18 Sep.
2018].
69
NOTA SUL Ce.Mi.S.S. e NOTA SUGLI AUTORI
Ce.Mi.S.S.1
Il Centro Militare di Studi Strategici (Ce.Mi.S.S.) è l'Organismo che gestisce, nell'ambito e
per conto del Ministero della Difesa, la ricerca su temi di carattere strategico.
Costituito nel 1987 con Decreto del Ministro della Difesa, il Ce.Mi.S.S. svolge la propria
opera valendosi si esperti civili e militari, italiani ed esteri, in piena libertà di espressione di
pensiero.
Quanto contenuto negli studi pubblicati riflette quindi esclusivamente l'opinione dei
Ricercatori e non quella del Ministero della Difesa.
Francesco Flammini
Francesco Flammini ha ottenuto la laurea con lode in
Ingegneria Informatica (2003) ed il Dottorato di
Ricerca in Ingegneria Informatica e Automatica
(2006) presso l’Università di Napoli Federico II. Ha
avuto esperienze professionali e di ricerca sia nel
mondo industriale (tra cui Ansaldo STS, Poligrafico
dello Stato) che in quello accademico (tra cui
University of Maryland, Linnaeus University). È
attualmente membro Senior dell’IEEE, presidente del comitato tecnico IEEE SMC sulla
Homeland Security, e coordinatore delle conferenze per l’initiativa IEEE sui Symbiotic
Autonomous Systems. È autore di oltre 100 pubblicazioni scientifiche su libri, riviste e atti di
congressi internazionali. Il suo ultimo libro, pubblicato da Springer, si intitola “Resilience of
Cyber-Physical Systems: From Risk Modeling to Threat Counteraction”.
1 http://www.difesa.it/SMD_/CASD/IM/CeMiSS/Pagine/default.aspx
Stampato dalla Tipografia delCentro Alti Studi per la Difesa