Date post: | 21-Mar-2017 |
Category: |
Engineering |
Upload: | mara-passuello |
View: | 800 times |
Download: | 17 times |
i
Sommario
Sommario .............................................................................. i
Introduzione ........................................................................ 5
Capito lo 1
L’energia come veicolo di informazione ........................ 9
1.1 La radiazione elettromagnetica ........................................ 11
1.1.1 Lo spettro e le finestre spettrali .................................. 12
1.2 L’immagine multispettrale ............................................... 15
1.2.1 Principali bande utilizzate nel telerilevamento ............... 17
A.1.2 Le grandezze radiometriche ........................................... 22
1.3 I sensori ....................................................................... 23
1.3.1 Classificazione in base alla tecnologia .......................... 24
1.3.2 Classificazione in base alla risoluzione spaziale ............. 31
1.3.3 Classificazione in base alla risoluzione spettrale ............ 33
1.3.4 Classificazione in base alla risoluzione temporale .......... 35
A.1.3 Principali sensori attualmente in orbita ........................... 37
ii
Capito lo 2
La classificazione e l’interpretazione ............................ 41
2.1 Classificazione automatica ............................................... 45
2.2 Classificazione pixel-based ............................................... 49
2.2.1 Classificazione pixel-based di tipo guidato (Supervised) ... 49
2.2.2 Classificazione pixel-based di tipo non guidato
(Unsupervised) .................................................................... 66
2.3 Classificazione Object-oriented ......................................... 69
2.3.1 Segmentazione .......................................................... 70
2.3.2 Classificazione............................................................ 74
2.4 Validazione .................................................................... 77
2.4.1 Accuratezza non-site-specific ....................................... 78
2.4.2 Accuratezza site-specific .............................................. 79
Capito lo 3
L’uso del telerilevamento in ambito urbano ............... 83
3.1 Esempi di applicazioni ...................................................... 86
Capito lo 4
Sperimentazione condotta sul caso studio(Bologna)..... 107
4.1 Dati a disposizione ........................................................ 109
4.1.1 Pre-processamento dell’immagine WolrdView-2 ............ 112
iii
4.2 Estrazione automatica di edifici ...................................... 115
4.2.1 Estrazione basata sul solo dato multispettrale ............. 120
4.2.2 Estrazione basata sul dato multispettrale e sul DSM ..... 136
4.3 Validazione .................................................................. 149
4.4 Considerazioni sulle problematiche riscontrate .................. 158
4.4.1 Estrazione basata sul solo dato multispettrale .............. 158
4.4.2 Estrazione basata sul dato multispettrale e sul DSM ..... 164
Conclusioni e osservazioni............................................ 169
Bibliografia ........................................................................ clxxiii
Sitografia ........................................................................ clxxviii
Ringraziamenti ................................................................... clxxxiii
iv
Introduzione
Con il termine Telerilevamento si comprendono quelle tecniche che
permettono di ricavare informazioni da realtà poste a distanza nota
dal sistema di presa, o sensore.
In questo elaborato sono prese in esame le sole modalità di
telerilevamento passivo, in cui viene sfruttata la proprietà dei corpi di
assorbire, emettere o riflettere una radiazione incidente già presente
in natura, in maniera e quantità diversa tra loro, a seconda delle
caratteristiche chimico-fisiche e tessiturali intrinseche.
La raccolta ed elaborazione delle informazioni è stata, ed è tuttora,
possibile grazie allo sviluppo dei sensori e delle modalità di
acquisizione, nonché delle tecniche di elaborazione delle immagini
digitali.
Nato come potente risorsa nel campo militare, il Remote Sensing si è
distinto nell’ambito di studi per le Scienze Ambientali come ad
esempio la biologia, la geologia, l’esplorazione in campo mineralogico,
il rilevamento delle caratteristiche geomorfologiche, l’idrologia,
l’oceanografia, la classificazione delle risorse agricole e forestali,
stime dei raccolti, studi legati ai tipi di stress ed inquinamento
ambientali e così via.
L’insieme dei parametri che si riescono a misurare a distanze che
raggiungono anche centinaia di chilometri, è assai ampio e
testimonia, da una parte, le grandi potenzialità già raggiunte e in
continuo sviluppo, di questa tecnica di indagine relativamente
“nuova” e, dall’altra, il largo campo di impieghi in cui il
Telerilevamento si è affermato.
Introduzione
6
Molto interessante, in questo ambito, è la possibilità offerta dagli
strumenti dei Sistemi Informativi Territoriali (SIT o GIS) di integrare
tra loro dati di natura diversa (raster e vettoriali, planimetrici e
altimetrici), in modo da ottenere ulteriori informazioni riguardanti
l’area di studio; tra essi i dati telerilevati rivestono un’ importanza
significativa. Il loro uso sinergico consente di sintetizzare scenari
futuri, fruibili per eventuali pianificazioni, oppure di prendere decisioni
sul territorio.
Questo aspetto ha dato una notevole spinta all’impiego, in ambito
urbano, del telerilevamento; ne sono di esempio i recenti studi sulle
caratteristiche termiche delle superfici, collegati alle indagini sul
cambiamento climatico, eseguite mediante telerilevamento termico
aereo e satellitare sfruttando le bande dello spettro elettromagnetico
dell’IR termico.
Nel settore dell’urbanistica possono essere evidenziati esempi di
utilizzo del telerilevamento come valido supporto nella gestione e
verifica dell’impatto dei piani regolatori e nel controllo dello sviluppo
dell’area urbana, con particolari applicazioni legate, per esempio, alla
ricognizione e rivalutazione delle aree verdi.
Questa tecnica di indagine si è particolarmente distinta, inoltre, nelle
situazioni di catastrofi naturali, fornendo, in maniera celere, un primo
set di informazioni sulla portata dei danni occorsi in seguito a disastri
quali terremoti o inondazioni.
È infine da citare il largo uso che si è fatto delle tecniche di
telerilevamento per la redazione di stime e simulazioni del fabbisogno
energetico ed idrico di un nucleo urbano, collegato al fenomeno di
sviluppo delle agglomerazioni metropolitane e periferiche.
Tema centrale di questa tesi è l’individuazione di una strategia per la
creazione di un prodotto, l’estrazione degli edifici da un nucleo
urbano, indispensabile per le applicazioni sopra citate.
Lo scopo di questo elaborato è quello di sviluppare una procedura di
classificazione automatica di edifici, basata su tecnica object-oriented,
di recente proposta a partire da immagini satellitari ad alta
risoluzione. In particolare, la sperimentazione è stata effettuata su
parte dell’area metropolitana della Città di Bologna.
I dati a disposizione comprendono un’immagine satellitare
multispettrale WorldView-2, caratterizzata da 8 bande e risoluzione
Introduzione
7
spaziale di 2 m nel multispettrale e di 0,5 m nel pancromatico, il
DTM (Digital Terrain Model), e il DSM (Digital Surface Model) dell’area
indagata e la CTC (Carta Tecnica Comunale).
La sperimentazione è stata effettuata mediante l’impiego del software
eCogniton Developer 8.8 di Trimble e il software open source
Quantumgis, per verificare l’accuratezza della mappa degli edifici
prodotta dalla classificazione object-oriented con una procedura di
validazione.
La tesi è organizzata in 4 capitoli.
Il primo capitolo è incentrato sul concetto di radiazione
elettromagnetica; si sofferma sulla descrizione degli intervalli di
lunghezza d’onda particolarmente utili nel campo del telerilevamento
e offre una panoramica dei principali utilizzi di ciascuno di questi
intervalli, in materia di protezione e pianificazione del territorio.
Una sezione è dedicata, inoltre, alla definizione del concetto di
sensore e all’illustrazione delle modalità di ripresa, con particolare
riferimento alle missioni satellitari odierne.
Nel secondo capitolo viene proposta una rassegna delle tecniche di
classificazione automatica di tipo pixel-based e object-oriented per
poi terminare con l’illustrazione del concetto di accuratezza e dei
parametri ad esso legati.
Nel terzo capitolo sono descritti 10 casi di studio significativi relativi
all’impiego delle immagini satellitari per applicazioni in ambito
urbano; questa raccolta mira a concentrare l’attenzione sulla varietà
di obiettivi raggiungibili attraverso dataset diversificati.
L’ultimo capitolo, il quarto, è dedicato al caso di studio ed, in
particolare, ai dati a disposizione, ai software utilizzati ed al workflow
che ha condotto alla realizzazione del progetto.
Introduzione
8
Capitolo 1
L’energia come veicolo di informazione
Il telerilevamento nasce con lo scopo di captare e misurare a distanza
le caratteristiche fisico-chimiche di un oggetto, tramite un sensore
che sia in grado di misurare l’energia elettromagnetica che la
superficie dell’oggetto irradia nello spazio circostante, verso il sensore
stesso.
Tale energia può essere emessa dall’oggetto stesso (quella ad
esempio termica, nel momento in cui la superficie del corpo sia ad
una temperatura maggiore dell’ambiente circostante), o riflessa, cioè
che il corpo, in virtù della sua composizione chimica e della tessitura
della sua superficie, riflette una volta colpito dall’energia
elettromagnetica proveniente da sorgenti naturali (come il sole) o da
sorgenti artificiali (ad esempio un laser, un radar…ecc. ).
In questo elaborato si prenderanno in considerazione misure
effettuate attraverso sensori passivi che misurano la radiazione
L’energia come veicolo di informazione
10
elettromagnetica proveniente dall’oggetto osservato (sia essa emessa
o riflessa). Tali sensori effettuano la misura in diversi canali spettrali,
centrati su specifiche lunghezze d’onda dello spettro
elettromagnetico.
In particolare, la scelta dell’intervallo spettrale dipende dal tipo di
indagine che si vuole effettuare; quindi, esisteranno sensori adatti
all’osservazione della superficie terrestre, altri adatti all’analisi di
acqua marina e/o lacustre; altri ancora specifici per studi nel campo
energetico e termico.
Figura 1.1 Percorso dell'energia elettromagnetica (Brivio P.A. et al., 2006)
L’energia come veicolo di informazione
11
1.1 La radiazione elettromagnetica
Le radiazioni elettromagnetiche emesse dalle sorgenti sono una forma
di energia che si propaga. Il fenomeno ondulatorio è infatti dovuto
alla propagazione contemporanea di due campi nello spazio, uno
elettrico e uno magnetico, oscillanti, perpendicolari tra loro.
È utile rappresentare questo fenomeno con carattere di onda piana,
definita da tre parametri:
- La lunghezza d’onda λ, ovvero la distanza che separa due
consecutive creste dell’onda;
- La frequenza ν, definita come numero di creste in un certo
intervallo di tempo, misurata in Hz ;
- L’ampiezza A, che equivale all’altezza di ogni cresta; nella
rappresentazione, indicherà il picco di Energia irradiata
misurata in Wm-2 μm-1 ;
Figura 1.2 La radiazione elettromagnetica
L’energia come veicolo di informazione
12
1.1.1 Lo spettro e le finestre spettrali
La radiazione elettromagnetica può essere rappresentata come
distribuzione monodimensionale dell’energia emessa: lo spettro
elettromagnetico.
Figura 1.3 Rappresentazione schematica dello spettro elettromagnetico (Brivio P.A. et al., 2006)
Gli intervalli di lunghezza d’onda della radiazione, definiscono regioni
dello spettro, convenzionalmente suddivisi e nominati.
La rappresentazione dello spettro parte da valori di λ minori di 0.3 Å
con la regione dell’ultravioletto (UV) fino a 350nm, dove inizia la
regione del visibile (VIS). Quest’ultima è distribuita tra le lunghezze
d’onda del violetto, passando per il blu, il verde e arrivando, col
rosso, a 750nm, dove inizia l’intervallo dell’infrarosso.
All’interno della regione dell’infrarosso, sono individuate le zone
dell’infrarosso vicino (NEAR IR) [0.75 μm – 3 μm], infrarosso medio
(MWIR) [3 μm – 7 μm], infrarosso termico (TIR) [7 μm – 20 μm] e,
infine, l’infrarosso lontano (FIR), che termina a [20 μm–1000 μm ],
dove inizia la regione delle onde radio, fra cui le microonde (MW),
impiegate nel telerilevamento attivo e passivo, tra le lunghezze
d’onda di [0.1 cm – 30 cm].
L’energia come veicolo di informazione
13
BANDA INTERVALLO λ INTERVALLO ν
Raggi cosmici < 0.03 Å > 108 THz
Raggi γ 0.03 – 3 Å 108 – 106 THz
Raggi X 0.3 – 10 nm 106 – 30000 THz
Raggi UV 10 – 380 nm 30000 – 789 THz
Visibile VIS 380 – 750 nm 789 – 400 THz
Infrarosso IR 0.75 – 1000 μm 400000 – 300 GHz
Microonde MW 0.1 – 100 cm 300 – 0.3 GHz
Onde radio > 1 m < 300 MHz
Tab. 1.1 Lunghezze d’onda e frequenze delle principali regioni dello spettro elettromagnetico
L’energia come veicolo di informazione
14
A causa dell’assorbimento della radiazione elettromagnetica, dovuto
all’interazione radiazione-gas atmosferici, non tutte le regioni dello
spettro sopracitate risultano utili al telerilevamento; solo in
corrispondenza delle cosiddette finestre atmosferiche, o zone di
trasparenza dell’atmosfera, la radiazione viene trasmessa e le perdite
dovute all’assorbimento sono minime o nulle.
Le finestre atmosferiche sono:
- [0.35 - 0.75 μm], nel VIS;
- [0.7 - 1.3 μm], [1.5 - 1.8 μm], [2.0 - 2.8 μm], nell’IR riflesso;
- [3 - 4 μm], nell’IR termico vicino;
- [8 - 14 μm], nell’IR termico medio;
- tutta la regione delle microonde.
Figura 1.4 Zone di assorbimento e riflessione dello spettro elettromagnetico
L’energia come veicolo di informazione
15
1.2 L’immagine multispettrale
Un’immagine satellitare è la rappresentazione di una porzione
di territorio dove i valori dei pixel, gli elementi quadrati che
compongono l’immagine stessa, rappresentano una o più parti
dello spettro elettromagnetico. In generale, le immagini
satellitari si distinguono in pancromatiche e multispettrali. Nel
primo caso si ha un’immagine singola che registra l’intero
intervallo del visibile; le immagini multispettrali registrano
ciascuna uno specifico intervallo dello spettro elettromagnetico.
Un’immagine che copre più bande dello spettro
elettromagnetico, è in grado di offrire più informazioni di quelle
che l’occhio umano può ricavare dalla sola regione del visibile.
Inoltre, le immagini multispettrali risultano utili per il
riconoscimento della risposta spettrale, delle superfici osservate
con particolare riferimento alla realizzazione di mappe d’uso e
copertura del suolo che necessitano l’interpretazione di
fenomeni di riflessione in diverse regioni dello spettro.
Poter disporre di più bande consente di individuare e classificare
elementi della scena, studiandone la cosiddetta firma
spettrale.
Osservando infatti l’energia riflessa dalle superfici, a diverse
lunghezze d’onda, se ne ricava una curva di riflettività, detta
appunto firma spettrale; essa permette di distinguere diversi
elementi a seconda della loro composizione chimico-fisica e di
come, questa, influisca nei processi di riflessione dell’energia
elettromagnetica (http://www.ricercasit.it).
Esistono, di fatto, vere e proprie librerie spettrali, che
raccolgono le firme di spettrali di numerose sostanze che
compongono gli elementi da cui siamo circondati.
L’energia come veicolo di informazione
16
Figura 1.5 (a,b,c) esempi delle firme spettrali più note
L’energia come veicolo di informazione
17
1.2.1 Principali bande utilizzate nel telerilevamento
Si riportano di seguito alcuni esempi d’impiego delle bande in
funzione del fenomeno indagato.
Suddette bande possono essere combinate mediante operazioni
matematiche al fine di ottenere degli indici spettrali (IS) che
enfatizzino un fenomeno di interesse (ad esempio il contenuto in
clorofilla) o riducano eventuali elementi “di disturbo” (ad esempio
fenomeni di scattering dell’atmosfera).
- Individuazione vegetazione naturale:
FENOMENI INDAGATI assorbimento spettrale della clorofilla nel rosso con la
riflessione nel vicino infrarosso, fortemente influenzata dal tipo di strutture fogliare.
BANDE
VIS Utilizzati nella definizione di IS IR vicino
Microonde caratteristiche morfologiche,
contenuto in acqua
IS
NDVI (Normalized
Difference Vegetation Index)
L’indice varia nell’intervallo [-1,1]; A valori negativi corrispondono zone d’acqua; a valori maggiori di zero fino
ad uno, corrispondono aree vegetate e suoli.
RVI (Ratio Vegetation
Index)
Per valori bassi compresi tra 0 e 1 ci si trova su una zona di suolo o acqua; per valori che si aggirano da 6 a 10, si ha di
fronte vegetazione.
Tab. 1.2 Principali bande e indici utilizzati nell’individuazione di vegetazione naturale
L’energia come veicolo di informazione
18
- Individuazione vegetazione coltivata:
FENOMENI INDAGATI
assorbimento spettrale della clorofilla nel rosso con la riflessione nel vicino infrarosso, fortemente influenzata dal tipo di strutture fogliare.
BANDE
VIS Utilizzati nella definizione di
IS, fotointerpretazione delle colture; analisi dello stato di
salute: RED EDGE POINT IR vicino
IS
NDVI (Normalized Difference
Vegetation Index)
INDICI FOGLIARI
Tab. 1.3 Principali bande e indici utilizzati nell’individuazione di vegetazione coltivata
- Pianificazione ed uso del suolo:
FENOMENI INDAGATI
discriminare le diverse risposte spettrali degli oggetti; uso integrato di immagini ad alta risoluzione spaziale e radiometrica servendosi anche di dati archiviati e di pubblico accesso, per la costruzione di
indagini multitemporali.
BANDE
VIS Riflessione superfici
e materiali, fotointerpretazione; definizione di indici vegetazionali per polmoni verdi;
IR vicino
Pancromatico
Fotointerpretazione geometrica ad alta risoluzione, confronto con mappe catastali pre-esistenti; realizzazione di pan-sharpening;
IS
NDVI (Normalized
Difference Vegetation Index)
LAI (Leaf Area Index)
Tab. 1.4 Principali bande e indici utilizzati nella pianificazione del suolo
L’energia come veicolo di informazione
19
- Monitoraggio catastrofi naturali (1): alluvioni, frane e smottamenti
FENOMENI INDAGATI
l’uso dei dati satellitari in ambito di protezione civile in caso di alluvioni, terremoti, frane, incendi è sempre più determinante: la tempestività dei dati può essere determinante; approccio
multimissione come ad esempio la realizzazione di costellazioni di satelliti che ottimizzino il tempo di accesso ai dati di interesse come è stato messo a punto per il programma COSMO-Skymed dell’Agenzia Spaziale Italiana.
BANDE
VIS IR
PANCROMATICO
Delimitazione aree inondate per
fotointerpretazione;
Microonde
Tecnologia SAR : osservazione a più riprese della superficie terrestre, definizione dell’area inondata; possibilità di agire in qualunque situazione meteorologica.
Tab. 1.5 Principali bande e indici utilizzati nel monitoraggio di catastrofi naturali
- Monitoraggio catastrofi naturali (2):
incendi
FENOMENI INDAGATI Identificazione zone a rischio; circoscrizione in tempi brevi dell’area interessata; quantificazione e georeferenziazione de i danni.
BANDE
VIS Delimitazione aree interessate per fotointerpretazione; presenza di fumo; Pancromatico
MWIR (Infrarosso a onde medie)
In accordo con la legge di Wien, per cui un corpo emette radiazione elettromagnetica con lunghezza d’onda λmax tanto più piccola, quanto più alta è la sua temperatura, si è calcolato che l’emissione radiativa, per gli oggetti che emettono alle
tipiche temperature degli incendi boschivi, si manifesta con lunghezze d’onda fra i 3 a 5 µm. Questo intervallo corrisponde a quello dell’ IR medio nei principali sensori.
Tab. 1.6 Principali bande e indici utilizzati nel monitoraggio di catastrofi naturali
L’energia come veicolo di informazione
20
- Monitoraggio inquinamenti (1): discariche abusive
FENOMENI INDAGATI
La decomposizione della parte organica dei rifiuti, depositata in discarica e messa in condizioni di mancanza di ossigeno, a causa del sotterramento con l’intenzione di eludere i controlli, si accompagna a una produzione di calore sullo strato superficiale del terreno, posto ad una temperatura minore, specialmente nelle
stagioni più rigide.
BANDE
VIS Delimitazione aree interessate per fotointerpretazione; Pancromatico
TIR (Infrarosso
termico)
Emissioni di energia sotto forma di calore visibili nella banda del termico;
Tab. 1.7 Principali bande e indici utilizzati nel monitoraggio di discariche abusive
- Monitoraggio inquinamenti (2):
inquinamento aree costiere
FENOMENI INDAGATI
La conseguenza delle attività industriali e domestiche, che riversano gli scarichi nelle acque aperte, è il manifestarsi di un calo di ossigeno sul fondale. Questo causa una decomposizione delle sostanze organiche e una produzione
di quelle tossiche, che a loro volta innescano una diminuzione progressiva di fitoplancton sottocosta.
BANDE
VIS Delimitazione aree interessate per fotointerpretazione; Monitoraggio del fitoplancton sottocosta attraverso la specifica del blu ( 430 nm) e secondariamente nel rosso
( 670 nm) Pancromatico
Microonde Tecnologia SAR per l’individuazione in mare di residui di petrolio o discariche abusive;
Tab. 1.8 Principali bande e indici utilizzati nel monitoraggio di inquinamento di aree costiere
Figura 1.6 Dettaglio dell'assorbimento di radiazione elettromagnetica da parte del fitoplancton (Teggi S. Appunti di Telerilevamento)
L’energia come veicolo di informazione
21
- Fotogrammetria: realizzazione di cartografie e modelli digitali del terreno
FENOMENI INDAGATI
Sistemi di ripresa ottici (NADIR e OFF-NADIR); Tecnologie Radar/ SAR
BANDE
VIS Delimitazione aree interessate per definizione geometrie; fotointerpretazione scena; stereocoppie (nadir e off-nadir)
per la realizzazione di modelli
digitali del terreno; confronto con cartografia esistente;
NEAR IR (infrarosso vicino)
Pancromatico
Microonde Tecnologia Radar e SAR per la
realizzazione di modelli digitali del terreno;
Tab. 1.9 Principali bande e indici utilizzati nel monitoraggio di inquinamento di aree costiere
L’energia come veicolo di informazione
22
A.1.2 Le grandezze radiometriche
Di seguito si riportano le grandezze fisiche utilizzate nella misura
dell’energia dello spettro elettromagnetico.
SIMBOLO DESCRIZIONE ESPRESSIONE DIMENSIONI
Q
(energia radiante)
Energia trasportata
dalle onde elettromagnetiche
(fascio composto da n fotoni)
Q= ∑ [ ]
Ф (flusso radiante)
Energia radiante Q
trasferita da una superficie, nell’unità
di tempo
Ф =
[ ]
M (exitanza)
o E (irradianza) (densità di flusso
radiante uscente o incidente)
Equivale al rapporto tra il flusso radiante e l’’area interessata
dallo scambio
M =
E =
[ ]
L (flusso radiante per unità di superficie e
angolo solido)
Concetto legato alla geometria di
osservazione: lega il flusso di energia
percepita all’angolo di osservazione e alle caratteristiche
strumentali
L =
= angolo tra la
direzione di osservazione e la
verticale alla superficie misurata = angolo solido del
flusso di energia radiante
[ ]
Tab. 1.10 Grandezze radiometriche utilizzate nel telerilevamento
L’energia come veicolo di informazione
23
1.3 I sensori
Gli strumenti utilizzati nel telerilevamento per misurare la radiazione
elettromagnetica sono generalmente chiamati sensori.
Un sensore è un trasduttore che riceve un segnale in entrata,
l’energia elettromagnetica, ed emette un segnale elettrico in uscita.
Nel rilevamento a distanza della superficie terrestre e degli oggetti
che ne fanno parte, si parla di energia elettromagnetica emessa o
riflessa dagli oggetti e il segnale elettrico in uscita corrisponde ad un
valore discreto denominato digital number .
In generale, il termine di viene impiegato per identificare un sistema
a più componenti costituito da:
- Rilevatori;
- Trasduttori;
- Supporti di memoria;
- Registratori di dati;
- Attuatori;
Esso può essere montato su piattaforme diverse, a seconda del
fenomeno investigato:
- Piattaforme fisse terrestri;
- Piattaforme mobili terrestri;
- Piattaforme sottomarine o sub-terrestri;
- Piattaforme satellitari;
- Velivoli;
- Veicoli;
- Imbarcazioni;
La scelta del sensore impiegato in una certa applicazione viene
effettuata in base al tipo di indagine che si vuole condurre.
Di seguito, nell’enunciare le caratteristiche tecniche che influenzano
questa scelta, vengono descritte le diverse categorie di sensori.
L’energia come veicolo di informazione
24
1.3.1 Classificazione in base alla tecnologia
In base alla tecnica di acquisizione delle informazioni, i sensori
vengono suddivisi in passivi e attivi.
Si definiscono passivi quei sensori che misurano la radiazione solare
riflessa ed emessa da oggetti o superfici; la registrazione si svolge
esclusivamente di giorno e inoltre l’esposizione alla luce solare incide
notevolmente sulla qualità del prodotto che verrà realizzato.
Di questa categoria fanno parte strumenti come :
- Radiometri: strumenti che misurano la radiazione in termini di
radianza spettrale (si può parlare di radiometri o radiometri
multispettrali);
- Spettroradiometri: strumenti che misurano la radianza
multispettrale ad intervalli di 1nanometro ciascuno, arrivando
ad avere una serie continua di dati distribuiti su tutto lo
spettro;
- Sistemi fotografici: strumenti che trasducono il segnale
elettromagnetico in un segnale elettrico di digital numbers
rappresentanti i valori di pixel che compongono un’immagine
digitale;
Figura 1.7 Rappresentazione di un sistema di acquisizione ottico, con supporto di tipo pellicola fotosensibile (a) o sistema CCD (b). (www.e-education.psu.edu)
L’energia come veicolo di informazione
25
- Sistemi a scansione: anch’essi strumenti che producono un
segnale elettrico in output sotto forma di immagine digitale;
la particolarità degli scanner è la registrazione continua di una
scena bidimensionale durante un moto di avanzamento della
piattaforma su cui sono alloggiati e la contemporanea
osservazione del radiometro, che opera con tecnica whisk-
broom o push-broom.
La tipologia whisk-broom registra una scena bidimensionale
attraverso uno specchio mantenuto in rotazione che devia i
raggi della radiazione proveniente dal suolo verso il sistema
ottico di ripresa.
Uno scanner di questo tipo è caratterizzato dal parametro IFOV
(Istantaneous Field Of View) che è l’angolo solido di vista
(generalmente misurato in steradianti) a cui corrisponde un
angolo piano FOV (angular Field Of View) e un gIFOV (ground
IFOV), cioè l’area spazzata a terra, che dipende anche dalla
quota di volo.
Figura 1.8 Sistema a scansione di tipo whisk-broom (www.creaf.uab.es )
L’energia come veicolo di informazione
26
La tipologia push-broom è dotata di particolari sistemi ottici
attraverso i quali l’immagine di una strisciata scansionata è
osservata e registrata istantaneamente da un array di CCD1. Il
segnale acquisito quindi dai CCD costituisce una fila intera di
pixel dell’immagine. La scena totale quindi è il montaggio di file
successive di pixel acquisite durante l’avanzamento della
piattaforma su cui si trova il sensore.
Nel caso di sensore multispettrale si avrà un array di rivelatori
per ogni banda di acquisizione.
L’acquisizione contemporanea di una dimensione dell’intera
scena, necessita di un tempo di esposizione superiore a quello
dei sistemi whisk-broom e una sorgente luminose costante per
ottenere una luminosità uniforme.
Figura 1.9 Sistema a scansione di tipo whisk-broom (www.creaf.uab.es )
1 CCD (Coupled Charged Device): rivelatore ottico che trasforma l’energia elettromagnetica registrata in entrata, in segnale elettrico; viene definito “processo fotoelettrico”. Si trovano spesso utilizzati in Linear array o Matrix array.
L’energia come veicolo di informazione
27
Si definiscono, invece, attivi quei sensori che emettono un segnale
per “illuminare” la scena indagata e ne registrano l’eco di ritorno.
Essi permettono, quindi, la ripresa sia di giorno sia di notte e in
presenza di copertura nuvolosa;
Un esempio di sensore attivo è il RADAR (RAdio Detection and
Ranging).
I radar sono classificati tra i sensori attivi, poiché sono essi stessi
sorgenti di energia elettromagnetica di tipo microonde, emessa da un
antenna verso il bersaglio; i segnali inviati sono direzionabili e
polarizzabili. Questi sistemi di acquisizione sono inoltre dotati di un
ricevitore che riceve il segnale riflesso dall’obiettivo.
Dal segnale retroriflesso si ottengono due tipi di informazioni sul
bersaglio:
- In primo luogo, la distanza obliqua dall’antenna, ottenuta
mediante la misura del tempo intercorso tra l’invio del segnale
e la ricezione dell’eco;
- In secondo luogo, viene misurata la potenza del segnale
ricevuto;
in particolare la potenza del segnale dipende dai parametri:
[
]
dove :
è la potenza del segnale inviato dall’antenna;
G è il guadagno dell’antenna;
D è la distanza obliqua tra antenna e superficie del bersaglio; il
sistema radar infatti vede il terreno lungo una linea obliqua che
collega bersaglio e antenna.
è la lunghezza d’onda del segnale emesso;
è il coefficiente di retrodiffusione a cui è legata la risposta delle
superfici; esso è funzione di parametri legati al sistema radar e
parametri del terreno stesso, come ad esempio la rugosità e il
contenuto in acqua.
L’energia come veicolo di informazione
28
Le immagini ottenute sono composte da pixel i cui digital numbers
dipendono dalla potenza del segnale retro-riflesso dalle superfici,
all’antenna.
Quanto più un’antenna è grande, tanto maggiore è l’area “illuminata”,
di conseguenza, permette risoluzioni migliori.
È tuttavia difficile praticamente montare un’antenna di dimensioni
elevate.
Questi limiti pratici vengono aggirati da un Radar di tipo SAR
(Synthetic-Aperture Radar), che monta comunque un’antenna di
dimensioni ridotte, ma che sfrutta l’effetto Doppler.
Durante il movimento della piattaforma, viene emesso un impulso in
corrispondenza di ogni posizione occupata. Elaborando
opportunamente i dati acquisiti dal sensore in posizioni successive, si
simula un'antenna di dimensioni molto maggiori di quella reale,
corrispondenti all’ampiezza di tutto lo spazio coinvolto
nell’osservazione
Figura 1.10 Modalità di acquisizione del segnale, nella tecnologia di ripresa SAR
L’energia come veicolo di informazione
29
Ogni oggetto che entri nel fascio di illuminazione dell’antenna riflette
il segnale con una diversa frequenza a seconda della posizione che
occupa all’interno dello swath2.
In particolare, in fase di avvicinamento , l’oggetto retro-diffonde il
segnale con frequenza maggiore del segnale emesso; nel momento in
cui l’oggetto è allineato all’antenna, esso riflette con frequenza uguale
al segnale che lo colpisce; infine in fase di allontanamento, il segnale
riflesso dall’oggetto avrà frequenza minore. Questo meccanismo è
definito “Storia delle Fasi” e permette la localizzazione nello spazio, di
un corpo.
La localizzazione di un oggetto lungo la direzione perpendicolare al
volo (direzione trasversale),avviene misurando il tempo impiegato dal
segnale portante a tornare al ricevitore, una volta colpito il bersaglio.
La localizzazione, invece, lungo la direzione di volo è ottenuta
nell’istante in cui frequenza Doppler e frequenza della Portante sono
uguali.
2 Swath: campo totale di vista.
L’energia come veicolo di informazione
30
Tra i sistemi attivi è opportuno citare il Laser (Light Amplification by
Stimulated Emission of Radiation) a scansione. Il prodotto che si
ottiene, illuminando gli oggetti con il fascio laser, che opera
generalmente nella regione del visibile e dell’infrarosso vicino, è una
nuvola di punti tridimensionali.
I laser a scansione si distinguono in base al principio di
funzionamento del sensore, che può essere:
- Misura del tempo di volo (ToF);
- Triangolazione;
- Metodo della comparazione di fase;
Nel telerilevamento un laser a scansione fa generalmente parte di un
sistema più complesso di acquisizione chiamato Lidar (Light Detection
and Ranging); esso è composto da :
- Mezzo mobile;
- Trasmettitore laser;
- Ricevitore
- Posizionamento GPS;
- Sistema inerziale;
- Sistema di acquisizione di dati;
L’energia come veicolo di informazione
31
1.3.2 Classificazione in base alla risoluzione spaziale
La risoluzione spaziale, o geometrica, è la minima area elementare
al suolo di cui si rileva l’energia elettromagnetica ad una certa
distanza e ad un dato istante; essa esprime il dettaglio raggiungibile
da un sistema di ripresa.
La risoluzione spaziale può essere suddivisa in classi
CLASSI DI RISOLUZIONE RISOLUZIONE IN METRI DEFINIZIONE DI RISOLUZIONE
1 0.1 – 0.5 m ALTISSIMA
2 0.5 – 1 m ALTA
3 1 – 4 m
4 4 – 12 m MEDIO - ALTA
5 12 – 50 m MEDIA
6 50 – 250 m BASSA
7 250 – 1000 m
8 > 1000 m BASSISSIMA
Tab. 1.11 Classi di risoluzione dei sensori
Tra i sensori ad alta risoluzione spaziale si annoverano i sensori
passivi :
- Camere fotogrammetriche analogiche (montate su aereo);
sono gli strumenti fotografici tradizionali che operano nel campo
del visibile e nell’infrarosso vicino (fino a 0,9 μm). Le foto aeree
possono fornire fino a risoluzioni spaziali inferiori ai 50
centimetri. Le pellicole più utilizzate sono quelle pancromatiche
sensibili al visibile oppure, per l’acquisizione di più bande
spettrali differenti, viene utilizzato un sistema a più ottiche con
diversi filtri.
- Camere fotogrammetriche digitali (montate su aereo);
utilizzano un piano focale composto da elementi CCD(Charge
Coupled Device) in linea o a matrice, che scansionano la scena
da rilevare; La risoluzione dipende sia dalle condizioni di volo,
sia dalle dimensioni degli elementi CCD.
- Sensori pancromatici, e multispettrali
(montati su satelliti ad orbita quasi polare);
Si tratta di sensori che lavorano nel campo del visibile e
dell’infrarosso vicino(solitamente tra 0,4 e 0,9 μm). Essi
misurano l’intera energia elettromagnetica proveniente in
questo intervallo per ottenere un’alta risoluzione spaziale a
scapito della risoluzione spettrale.
L’energia come veicolo di informazione
32
Mediante le immagini pancromatiche è possibile realizzare due
prodotti di grande aiuto nel telerilevamento; in primo luogo le
fusioni di immagini multispettrali e pancromatiche attraverso la
tecnica di pan-sharpening, per ottenere la stessa immagine
multispettrale con medesima risoluzione spaziale della
pancromatica ; nel caso in cui siano disponibili due riprese del
sensore pancromatico, una nadir e l’altra off-nadir, è possibile
sfruttare la stereoscopia al fine di ottenere informazioni sulle
quote dei punti ripresi, attraverso la creazione di modelli digitali
del terreno.
Figura 1.11 Esempio di immagine Pan-sharpened (a destra), ottenuta dalla fusione delle due immagini precedenti (la prima, proveniente da un sensore pancromatico e la seconda, proveniente dai canali RGB di un sensore multispettrale)
Fra i sistemi attivi ad alta risoluzione spaziale, si cita il laser scanner
(montato su aereo). Un laser a scansione ad alta risoluzione ( tipo
Laser altimetro Optech ALTM 3033) può emettere 33000 impulsi al
secondo e in base alla quota di volo e all’angolo di scansione si
possono ottenere nuvole di 10.200 punti per ettaro.
Un altro esempio di sistema attivo, ad alta risoluzione spaziale, è la
costellazione formata dai 4 satelliti COSMO-SkyMed, ognuno dei quali
è equipaggiato di un radar ad apertura sintetica (SAR) a microonde
che opera nella banda X. L’area coperta a terra è di circa 600km, con
una risoluzione che va da 1 a 100m. (http://www.cosmo-skymed.it/it/index.htm)
L’energia come veicolo di informazione
33
1.3.3 Classificazione in base alla risoluzione spettrale
La risoluzione spettrale esprime il numero di bande in cui è diviso
l’intervallo di sensibilità spettrale del sensore a cui si riferisce.
Nel momento in cui il sistema di ripresa possiede più canali di
acquisizione, in diverse bande spettrali, si inizia a parlare di alta
risoluzione spettrale e quindi di sensori multispettrali e iperspettrali .
I sensori multispettrali, contano fino a 15 bande per cui risultano
adatti, ad esempio, per applicazioni di classificazione d’uso e
copertura del suolo e per l’interpretazione dei fenomeni territoriali e
ambientali che ne derivano.
I sensori iperspettrali misurano in un numero di bande fino all’ordine
del centinaio e comunque, per convenzione, maggiore di 16. Sono
particolarmente utilizzati nel riconoscimento e catalogazione delle
firme spettrali degli elementi osservati ed è possibile attivarne un
certo numero e tipo di bande a seconda del caso studio.
Di seguito, nell’Appendice A 1.3 sono raccolti i più recenti e noti
sensori multispettrali e iperspettrali e multispettrali alloggiati su
missioni satellitari.
L’energia come veicolo di informazione
34
Le esperienze e la ricerca condotte finora sui sensori montati su
piattaforme satellitari stanno fornendo buoni risultati dal punto di
vista della risoluzione spettrale, ma continuano a rimanere penalizzati
per quanto riguarda la risoluzione spaziale, a causa delle grandi
distanze dalla Terra delle piattaforme su cui sono alloggiati.
La ricerca, nel campo dei sensori iperspettrali, è volta soprattutto
verso piattaforme a bordo di aerei.
Di seguito si forniscono degli esempi di sensori iperspettrali montati
su piattaforme aeree.
SENSORI PROPRIETÀ SPETTROMETRI BANDE RISOLUZIONE
SPAZIALE
Aviris Airborne Jet Propulsion
Laboratory (JPL) 4
31 (0.41- 0.60 μm) 63 (0.68 – 1.27 μm) 63 (1.25 – 1.86 μm) 63 (1.84 – 2.45 μm)
20 m
Casi 1500 1 288 (0.40 -1.25 μm) 0.25 – 1.5 m
Mivis CNR 4
20 (0.43 - 0.83 μm) 8 (1.15 – 1.55 μm)
64 (2.00 – 2.50 μm) 63 (8.20 – 12.7 μm)
24m (12000 m quota) / 2m
(1000m quota)
Tab. 1.12 Esempi di sensori iperspettrali, montati su piattaforme aeree.
Il numero di livelli impiegati nella rappresentazione di una scena, è
legato alla risoluzione radiometrica del sistema. Essa esprime in
pratica la differenza minima di intensità che il sensore è in grado di
rilevare tra due valori di radiazione elettromagnetica.
Maggiore è la risoluzione radiometrica del sensore in questione, più
saranno i livelli di energia con cui viene espressa la radiazione
elettromagnetica misurata.
L’energia come veicolo di informazione
35
1.3.4 Classificazione in base alla risoluzione temporale
Per risoluzione temporale si intende il periodo di tempo
(generalmente in giorni o ore) che intercorre tra due riprese
successive della stessa area.
La scelta del sensore, e della piattaforma su cui alloggiarlo, deve
prendere in considerazione anche questo aspetto, strettamente legato
alle indagini per cui è destinato.
Esistono applicazioni come la meteorologia, gli studi di oceanografia o
le indagini sui cambiamenti climatici, che necessitano un
monitoraggio costante su aree ben precise, aggiornamenti continui di
giorno e di notte real time.
Per questi scopi vengono impiegati satelliti con orbite geostazionarie,
per i quali ad un’alta risoluzione temporale si contrappone una bassa
risoluzione spaziale generalmente dell’ordine del chilometro.
Figura 1.12 Orbita di tipo geostazionario
Figura 1.13 tipico punto di vista di un satellite con orbita geostazionaria
L’energia come veicolo di informazione
36
L’evoluzione delle trasformazioni urbane, dell’uso e della copertura
del suolo possono essere invece studiati attraverso il confronto di
immagini della stessa scena riprese a mesi o ad anni di distanza.
In questo caso si fa ricorso a piattaforme con tempi di rivisitazione
più lunghi. Si parla quindi di satelliti con orbite eliosincrone (polari o
quasi polari) con a bordo sensori a media, medio-alta o alta
risoluzione spaziale e spettrale, che consentono analisi nel tempo.
Figura 1.14 Orbita di tipo eliosincrono (quasi polare). Il periodo T dell’orbita deve essere tale da percorrere un perfetto ciclo orbitale prestabilito. Le tracce al suolo percorse dal satellite si ripetono una sola volta per ogni ciclo orbitale; le tracce al suolo che delimitano le scene dovranno essere ogni ciclo uguale.
Figura 1.15 tipico punto di vista di un satellite con orbita eliosincrona
Di seguito si riporta una tabella che riassume i parametri
caratterizzanti delle orbite geostazionarie ed eliosincrone.
ORBITA QUOTA DI VOLO CICLO
ORBITALE RISOLUZIONE TEMPORALE
RISOLUZIONE SPAZIALE
ORBITA GEOSINCRONA
~ 36000 km - 15 / 30 min (BASSA) 1 / 5 km
ORBITA ELIOSINCRONA
~ 900/600 km 13-15 orbite/gg 1 / 30 gg (MEDIA / ALTA)
1m / 1km
Tab. 1.13 parametri di ciclo orbitale eliosicrono e geosincrono.
L’energia come veicolo di informazione
37
A.1.3 Principali sensori attualmente in orbita
Si riporta di seguito una panoramica dei paesi che contribuiscono
all’offerta di materiale telerilevato, con programmi di attività spaziale:
USA : serie Landsat7/8, NOAA, IKONOS, QuickBird;
FRANCIA : SPOT-4/5;
GIAPPONE : MOS-1;
INDIA : IRS-1A/B;
ISRAELE : EROS-A/B;
RUSSIA : Resource.
EUROPA : ENVISAT, ERS-1/2, Meteosat;
EUROPA : CosmoSkyMed;
Di seguito si riportano le caratteristiche dei principali sensori passivi
ad alta e medio/alta risoluzione. In particolare, la sperimentazione
descritta in questo lavoro è stata condotta su immagini del sensore
WorldView2, a bordo dell’omonimo satellite.
SAT / SENSORI PROPRIETÀ
BANDE SPETTRALI
RISOLUZIONE GEOMETRICA
RISOLUZIONE RADIOMETRICA
ALT
A R
ISO
LU
ZIO
NE
WorldView2
Su WorldView2
(USA)
Ciclo 1 gg ca.
Strisciata
16.4km
Altezza 770km
[ ] Coastal Blu
[ ] Blu
[ ] Verde
[ ] Giallo
[ ] Rosso
[ ] Red Edge
[ ] IR vicino1
[ ] IR vicino2
[ ] Pan.
Panchr.
0.46m (NADIR)
0.52m
(OFF NADIR)
Multispectr.
1.84m (N)
2.06m (O N)
11 bit
L’energia come veicolo di informazione
38
SAT / SENSORI PROPRIETÀ
BANDE SPETTRALI
RISOLUZIONE GEOMETRICA
RISOLUZIONE RADIOMETRIC
A
ALT
A R
ISO
LU
ZIO
NE
IKONOS
(Space Imaging,
USA)
Ciclo 1-14 gg
Strisciata
11.3km
Altezza 680km
[ ] Blu [ ] Verde
[ ] Rosso [ ] IR vicino
[ ] Pan.
3.2 m
0.82 m
11 bit
QUICKBIRD
(Digital Globe,
USA)
Ciclo 1-3.5 gg
Strisciata
16.5km
Altezza 450km
[ ] Blu [ ] Verde [ ] Rosso [ ] IR vicino
[ ] Pan.
2.44 m
0.61 m
11 bit
ME
DIO
–A
LT
A R
ISO
LU
ZIO
NE
ASTER
Terra (Earth Observation
System)
(NASA USA)
Ciclo 1 gg ca.
Strisciata 60 km
14 bande
15 m (VIS e NEAR
IR )
8 bit
MODIS
Terra (Earth Observation
System)
(NASA, USA)
Ciclo 1 gg ca.
Strisciata 2.3 km
36 bande
250 m (b 1-2) 500 m (b 3-7) 1000 m (b 8-36)
12 bit
L’energia come veicolo di informazione
39
ME
DIO
– A
LT
A R
ISO
LU
ZIO
NE
HYPERION
EO-1
(NASA, USA)
Ciclo 16 gg
Strisciata 7.5 km
Altezza 705 km
220 bande
[0.4 – 2.25 ] 30 m 16 bit
ALI
EO-1
(NASA, USA)
Ciclo 16 gg
Strisciata 7.5 km
Altezza 705 km
[ ] Pan. [ ] MS - 1' [ ] MS - 1 [ ] MS - 2 [ ] MS - 3
[ ] MS – 4 [ ] MS – 4’ [ ] MS - 5 [ ] MS – 5’ [ ] MS - 7
10 m 30m 30m 30m 30m 30m 30m 30m 30m
16 bit
HRVIR (haute
resolution visible infrarouge)
su Spot 4,5
(CNES, France)
Ciclo 26 gg
Strisciata 60km
Altezza 832km
[ ] Verde [ ] Rosso
[ ] IR vicino [ ] SWIR
[ ] Pan.
20 m 20 20 20
10
8 bit
LISS-1 (Linear self scanning sensors)
su Irs 1A-1B
(India)
Ciclo 22 gg
Strisciata 148km
Altezza 904km
[ ] Blu [ ] Verde [ ] Rosso
[ ] IR vicino
72 m 72 72 72
8 bit
Tab. 1.14 Principali sensori ad alta e medio-alta risoluzione, attualmente in orbita.
L’energia come veicolo di informazione
40
Capitolo 2
La classificazione e l’interpretazione
Nei capitoli precedenti è stato sottolineato come i prodotti delle
tecniche di telerilevamento siano contenitori di informazioni, acquisite
attraverso la registrazione dei valori di energia elettromagnetica
emessa o riflessa dalle superfici di ciò che ci circonda. Altro discorso è
come estrarre queste informazioni una volta raccolte e memorizzate.
Tradizionalmente l’individuazione di oggetti, fenomeni o processi
ambientali avveniva mediante fotointerpretazione dell’operatore di
immagini su pellicola.
I risultati potevano essere tanto più accurati quanto maggiore fosse
l’esperienza e la dedizione dell’operatore, tuttavia erano comunque
legati strettamente alla sua soggettività, non ripetibili e non
quantificabili.
A partire dagli anni ’80 inizia la produzione e raccolta di informazioni
con immagini “numeriche” anziché con immagini su pellicola
fotografica. (Kraus K. 1998)
L’attività di classificazione si trasforma in un duplice passaggio di
spazio; essa parte dallo spazio delle immagini, in cui ad ogni pixel è
associato un digital number (un certo livello di grigio, da 0 a 255, per
La classificazione e l’interpretazione
42
tutte le n bande di acquisizione del sensore); passa allo spazio delle
caratteristiche, in cui ad ogni pixel è associato un vettore posizione
nello spazio n-dimensionale delle caratteristiche ed arriva alla mappa
tematica, in cui viene associata ad ogni classe spettrale di pixels (con
simile pattern e vicina posizione nello spazio caratteristiche) una
classe tematica e quindi un’informazione semantica oltre a quelle già
presenti geografiche e spaziali.
Figura 2.1 Rappresentazione del passaggio dallo spazio delle misure, osservate dai sensori del telerilevamento, al mondo dei modelli, a cui si arriva mediante il processo di classificazione. (Brivio P.A. et al., 2006)
La definizione di procedure automatiche permette una
standardizzazione dei processi decisionali e rende possibile una
quantificazione egli errori.
Nell’ipotesi di lavorare con immagini multispettrali e quindi di avere
più informazioni legate ad uno stesso pixel immagine, il primo passo
della pattern recognition sarà quello di estrarre per ad ogni pixel il
valore nelle n bande di acquisizione, questo vettore di valori
rappresenta la posizione univoca dello stesso nello spazio n-
dimensionale delle caratteristiche.
La classificazione e l’interpretazione
43
Figura 2.2 Formazione di cluster nello spazio delle caratteristiche, dovuto all’addensarsi di vettori posizione associati a pixel appartenenti alla medesima classe tematica .
Le risposte spettrali delle diverse superfici nell’immagine faranno in
modo che i vettori posizione associati ai pixel raffiguranti oggetti di
uguale tipologia, o classe di informazione, tenderanno ad addensarsi
formando nuvole di punti, dette clusters o anche classi spettrali.
Non è raro tuttavia che capiti che le classi spettrali presentino,
all’interno dello spazio caratteristiche, un grado di separazione basso
o addirittura che si sovrappongano in alcune zone.
Si può affermare quindi che la bontà di un processo di classificazione
dipenda dal grado di separabilità di queste classi, ma anche in larga
parte dalle funzioni di decisione (o di discriminazione) con cui si
inserisce un pixel, individuato da un vettore univoco, in una o
nell’altra classe spettrale.
Si ipotizzi di avere come dato di partenza un’immagine multispettrale
in n bande. Ad ogni pixel dell’immagine sarà quindi associato un
vettore delle misure in n componenti, una per ogni banda, che
localizzerà univocamente il pixel, nello spazio n-dimensionale delle
caratteristiche;
le funzioni di decisione agiscono direttamente sul vettore delle
misure;
Esse possono agire secondo la logica booleana nell’ambito di una
classificazione di tipo hard oppure secondo la logica probabilistica
nell’ambito di una classificazione soft.
La classificazione e l’interpretazione
44
In entrambi i casi si valuterà l’appartenenza di un pixel ad una classe
spettrale se la funzione discriminate della classe i-esima è
maggiore delle altre:
Nello spazio caratteristiche le funzioni di decisione rappresentano le
frontiere dei domini delle classi spettrali.
Figura 2.3 Le funzioni di decisione rappresentano le frontiere delle classi spettrali nello spazio delle caratteristiche . (Brivio P.A. et al., 2006)
La classificazione e l’interpretazione
45
2.1 Classificazione automatica
Nel corso degli anni sono stati sviluppati e messi alla prova nuovi e
sempre più sofisticati sistemi di classificazione automatica o semi-
automatica, guidati o non guidati delle immagini telerilevate.
Tali sistemi permettono di derivare l’informazione semantica che si
sta ricercando senza o con un minimo aiuto da parte del
fotointerprete .
Un processo di classificazione di tipo automatico, è strutturato su tre
fasi fondamentali e generali che sono:
- Una fase di addestramento (o training), che interessa una
ristretta parte di pixel (dall’ 1% al 5% generalmente) o intere
aree, dette ROI (Region of Interest);
vengono individuati una serie di training site, o campioni, per
ogni classe tematica, attraverso la semplice esperienza
dell’operatore o informazioni supplementari di cui si è in
possesso; la scelta di punti che rappresentino le classi
tematiche, è in realtà un processo di individuazione di
determinate bande spettrali e di ben precisi livelli di grigio per
ciascuna, chiamato estrazione delle feature;
- Basandosi sulle feature estratte, le quali hanno definito delle
funzioni di separazione tra le classi spettrali nello spazio delle
caratteristiche, la macchina effettua l’assegnamento
automatico (allocation) del resto dei pixel immagine ad una o
ad un’altra classe spettrale; ad ogni classe spettrale nello
spazio caratteristiche verrà assegnata una classe tematica nello
spazio geografico;
- Segue la fase di validazione e controllo dell’accuratezza della
mappa tematica.
La classificazione e l’interpretazione
46
La classificazione non guidata (unsupervised) prevede invece un
intervento dell’operatore a posteriori, il quale assegna le classi
tematiche alle classi spettrali definite dalla macchina in precedenza,
attraverso le tecniche di clustering.
Figura 2.4 Distinzione fra i processi di classificazione guidata e non guidata . (Istituto Scienze della
Terra - SUPSI)
Nella pratica operativa tuttavia, i metodi di classificazione automatica
o semi-automatica stentano a sostituire la fotointerpretazione
manuale.
La classificazione e l’interpretazione
47
Il motivo di questo gap tra il progresso della ricerca e l’effettivo
affermarsi delle tecnologie innovative è da ricercarsi nei limiti che
frequentemente dimostrano gli elaborati prodotti con classificazione
supervised e unsupervised, in termini di accuratezza di classificazione
e complessità di lettura delle carte prodotte.
Un ostacolo alla diffusione di queste metodologie, è l’approccio, di
tipo pixel-based prevalentemente utilizzato : l’uso e copertura del
suolo viene determinato per ogni pixel dell’immagine originaria, in
maniera indipendente dagli altri.
Con questi presupposti, sono andate diffondendosi tecniche di
classificazione di immagini di tipo object-oriented , le quali sono
state anche recentemente introdotte nei pacchetti software più
utilizzati e diffusi, come eCognition della Trimble, che è proprio il
software utilizzato in questo elaborato.
Questo tipo di classificazione tratta i poligoni vettoriali generati da un
procedimento di segmentazione dell’immagine di partenza, anziché i
singoli pixel.
Il risultato finale, al di là dell’algoritmo di assegnazione utilizzato, è
un prodotto vettoriale, in contrapposizione a quello raster derivante
dall’approccio pixel-based.
La classificazione e l’interpretazione
48
La classificazione e l’interpretazione
49
2.2 Classificazione pixel-based
La classificazione pixel-based è un processo di assegnazione di
informazioni semantiche che avviene a livello del singolo pixel; esso
sfrutta il solo dato radiometrico, tralasciando quella serie di
informazioni derivanti dalla localizzazione del singolo pixel all’interno
dell’immagine e dello spazio.
Figura 2.5 Illustrazione del prodotto raster di una classificazione pixel-based.
2.2.1 Classificazione pixel-based di tipo guidato (Supervised)
La classificazione guidata tratta direttamente le classi informative,
definite in principio dall’analista, che si avranno al termine del
processo, nella carta tematica.
› Selezione delle classi e addestramento
La prima parte di questo approccio si incentra sulla definizione
della legenda della carta tematica e quindi sullo stabilire il
grado di dettaglio che essa avrà, al termine della
classificazione.
La definizione delle classi tematiche è strettamente connessa
all’ambito dello studio che si vuole condurre.
La classificazione e l’interpretazione
50
Ad esempio, uno studio di tipo agrario sullo sfruttamento di
un’area coltivata, sceglierà di discriminare appezzamenti di
terreno in base al tipo di coltura praticata; uno studio invece
incentrato sull’occupazione del suolo in ambito urbano, separerà
genericamente un suolo edificato da uno vegetato, al limite
discriminando un’area boschiva da una coltivata.
Figura 2.6 Esempi di legende di carte tematiche, differiscono a seconda del tipo di studio condotto.
La classificazione e l’interpretazione
51
Per ognuna delle classi definite precedentemente, deve essere
individuato un campione di pixel sufficiente a fungere come
modello per le fasi successive di classificazione automatica
attraverso algoritmi di decisione. Tali pixel vengono detti
training site.
La fase di addestramento richiede l’intervento dell’operatore, il
quale si aiuta con dati ancillari ad esempio:
- Sopralluoghi sul campo;
- Utilizzo di Carte topografiche, foto aeree ad una più alta
risoluzione spaziale, dati catastali, spettri di riflettanza al
suolo, carte tematiche esistenti;
- Esperienza personale ed interpretazione visuale;
Due sono gli aspetti da tenere presente durante questa fase: il
numero e la rappresentatività dei pixel di training.
Chiaramente sarebbe auspicabile un numero più grande
possibile di training site; questo fatto però comporterebbe costi
monetari e di tempo troppo onerosi.
Generalmente si adotta un numero di pixel di training
complessivo tra l’1% e il 5% del totale dei pixel dell’immagine.
Nella pratica si può adottare la regola per cui si richiede un
numero di training site compreso tra 10k e 30k, per ogni classe
tematica , dove k è il numero di caratteristiche selezionate
per la classificazione, cioè la dimensione dello spazio
caratteristiche.
Poiché dei pixel di training viene calcolato il pattern, ovvero
l’impronta spettrale nello spazio delle caratteristiche, è
necessario che essi siano rappresentativi della classe.
Ciò significa che dovranno essere scelti pixel omogenei e
dovranno essere evitate zone di confine fra un tipo di copertura
ed un’altra, che porterebbero inevitabilmente ad avere “pixel
misti” come training site.
La classificazione e l’interpretazione
52
È inoltre consigliabile selezionare pixel della stessa classe in
zone diverse dell’immagine, per tenere da conto gli effetti (sulla
riflettanza) di un’illuminazione diversa su aree omogenee.
› Selezione delle caratteristiche
Vengono selezionate le caratteristiche (siano esse bande
spettrali o indici spettrali) su cui impostare gli algoritmi di
decisione (classificatori).
Lo spazio delle caratteristiche, durante l’attività di
classificazione, è composto da tutte le bande spettrali in cui è
stata acquisita originariamente l’immagine, oppure dopo che ha
subito trasformazioni quali ad esempio le correzioni
atmosferiche per la riduzione del rumore.
Se l’avvento delle immagini multispettrali ha apportato notevoli
benefici all’attività di classificazione, non si può dire che abbia
anche aumentato incondizionatamente l’accuratezza finale delle
carte tematiche.
Con l’incremento dei dati multispettrali è diventato d’attualità il
fenomeno di Hughes, che rappresenta la tendenza
dell’accuratezza a crescere inizialmente man mano che
aumentano le bande spetrali, fino a raggiungere un picco di
massimo, ed iniziare successivamente una discesa.
Figura 2.7 Fenomeno di Hughes: diminuzione di accuratezza del classificatore, all’aumento progressivo di dimensioni dello spazio caratteristiche (Brivio P.A. , Lechi G. , Zilioli E. 2006).
La classificazione e l’interpretazione
53
È importante quindi considerare un numero di bande tali da non
creare ridondanza di informazioni nello spazio delle
caratteristiche.
Il contenimento del fenomeno di ridondanza, mediante
l’identificazione delle migliori variabili del problema, è
sviluppato con due metodi differenti: da un lato, attraverso
l’analisi delle componenti principali; dall’altro, attraverso
l’analisi della separabilità.
Si ipotizzi di tracciare tutti i vettori, nello spazio delle
caratteristiche n-dimensionale, rappresentativi dei pattern di
tutti i k pixel dell’immagine multispettrale in n bande.
Figura 2.8 Siano X1 e X2 due generiche bande dello spazio delle caratteristiche, xk pixel generico individuato nello spazio n dimensionale dal suo vettore.
Data la distribuzione di punti, il vettore del punto medio m
definisce l’ubicazione dell’insieme dei punti nello spazio.
=
∑
La varianza indica la distribuzione della proiezione dei punti
lungo un determinato asse (consideriamo X1)
=
∑
Dalla varianza si ricava la deviazione standard, che è la stima di
quanto i punti si discostino dal valore medio
La classificazione e l’interpretazione
54
√ = √
∑
Si definisce infine la matrice di varianza-covarianza, che mostra
la varianza, espressa dai valori lungo la diagonale, e la
correlazione tra le bande, espressa dai valori al di fuori della
diagonale.
Nel caso in cui si abbiano valori grandi al di fuori della
diagonale, la correlazione tra le bande è alta. Nei casi invece in
cui i valori siano prossimi a 0 o nulli, la correlazione tra le
bande è scarsa o nulla; ci troviamo davanti allora a due possibili
componenti principali.
Figura 2.9 a) esempio di distribuzione a bassa o nulla correlazione tra le bande; b) esempio di distribuzione con medesima varianza, ma ad alta correlazione tra le bande: l’informazione è ridondante.
Alcune bande presentano possono presentare quindi forte
correlazione tra loro, comportando distribuzioni di pixel con
covarianza alta. L’informazione sarebbe in questo caso
ridondante.
Si definiscono Componenti Principali quelle bande, create
artificialmente con criteri statistici, definite da assi
perpendicolari tra loro, a massima varianza di distribuzione di
pixel.
L’utilizzo di C.P. nelle fasi di costruzione ed applicazione degli
algoritmi decisionali di classificazione, ha i vantaggi di
comprimere l’informazione in un minor numero di immagini
garantendo, allo stesso tempo, un maggior contributo
informativo rispetto alle immagini originarie.
La classificazione e l’interpretazione
55
La trasformazione dalle coordinate basate sulle bande spettrali
a quelle che utilizzano le componenti principali come assi del
sistema di riferimento, viene effettuata attraverso una matrice
di trasformazione.
[ ]
La matrice di trasformazione viene scelta in modo tale che i
nuovi assi definiscano uno spazio a massima varianza e
covarianza minima o nulla.
Essa quindi sarà del tipo
[
]
Figura 2.10 Trasformazione da uno spazio definito dagli assi X1 e X2 ad alta correlazione, ad uno spazio negli assi Y1 Y2 a bassa correlazione.
Il principale svantaggio di questo metodo di selezione delle
caratteristiche, risiede nel fatto che i livelli di grigio delle
Componenti Principali non sono ovviamente indicazione di
diversa riflettanza per determinate lunghezze d’onda dello
spettro, bensì rappresentano il valore di varianza associato.
La classificazione e l’interpretazione
56
L’analisi nelle C.P. ha infatti come ultimo step il procedimento di
riscalare le immagini nei valori di digital numbers da 0 a 255.
L’analisi di separabilità viene condotta sulle ROI o sui singoli
training sites, valutando geometricamente le distanze che
separano le distribuzioni delle classi, nello spazio delle
caratteristiche.
Di seguito si riportano le espressioni di queste misure di
distanza, per una coppia generica di bande a e b appartenenti
allo spazio delle caratteristiche a n dimensioni. Si noti, però,
che nelle applicazioni è necessario valutare la separabilità fra
tutte le coppie di classi per le diverse combinazioni di bande
spettrali.
Fra le misure di distanza più semplici si citano la L1 (City block),
la L2 (Euclidea) e l’Angolare.
Esse esprimono la distanza che separa i valori medi delle classi,
tralasciando eventuali sovrapposizioni nelle distribuzioni nello
spazio delle caratteristiche.
- L1 (City block) | | ∑ | |
- L2 (Euclidea) ‖ ‖ √∑
- Angolare (
‖ ‖‖ ‖)
La classificazione e l’interpretazione
57
Per tenere conto del possibile grado di sovrapposizione delle
distribuzioni delle classi, si introducono due differenti misure di
distanza: la L1 normalizzata e la distanza di Mahalanobis in cui
compaiono la deviazione standard , nella prima, e la
covarianza C, nella seconda.
- L1 normalizzata ∑| |
(√ √ )
- Mahalanobis [ (
)
]
⁄
Nel caso in cui i valori delle medie siano uguali, le espressioni
sopracitate decadono; si fa quindi riferimento ad altre misure di
distanza, basate sulle distribuzioni di probabilità.
Siano le distribuzioni di probabilità normali, allora vengono
definite come segue la divergenza e la distanza di
Bhattacharrya .
- Divergenza
[ (
)]
[(
)
]
- Bhattacharrya
(|
| √| || |⁄ )
Le misure sopraelencate crescono indefinitamente, al crescere
della distanza di separazione tra le classi.
Vengono perciò proposte di seguito, due diverse espressioni
delle distanze con la caratteristica di acquistare meno peso,
man mano che la distanza tra le medie delle classi aumenta.
Questo è possibile grazie al fattore esponenziale che corregge il
corpo dell’espressione.
- Divergenza trasformata (
⁄ )
- Jeffries Matusita [ ]
⁄
La classificazione e l’interpretazione
58
› Algoritmi di assegnazione
A questo punto, si può procedere con la scelta dell’algoritmo di
classificazione, con cui il classificatore assegna, in maniera
automatica, tutti i pixel alla classe tematica corrispondente.
Nella pratica del calcolatore, l’algoritmo di decisione agisce
come una misura di distanze, all’interno dello spazio delle
caratteristiche, dove si sono formati i cluster di pixel per le
diverse classi tematiche.
Si può parlare di :
- Posizione del cluster (o della classe) , indicando il vettore
rappresentante la posizione del pixel medio della classe
stessa;
- Compattezza del cluster (o della classe) , indicando la
distanza (media) di ciascun pixel del cluster, dal punto
medio della classe;
- Grado di separazione dei cluster (o delle classi) , come
descritto nel paragrafo precedente, ci si riconduce a
misure di distanze tra i pixel medi delle classi;
Una volta determinate queste misure, il processo di
assegnazione di un pixel ad una classe o ad un’altra, è condotto
con logica booleana nel caso di classificatori definiti Hard (o
classificatori rigidi), o con logica probabilistica, nel caso di
classificatori definiti Soft (o classificatori morbidi).
A questi due diversi approcci, conseguono due diversi prodotti;
nel caso di una classificazione Hard, si ottiene una mappa
tematica in k classi, quante sono quelle stabilite in partenza,
nella legenda; ogni pixel è assegnato esclusivamente ed
automaticamente ad una e una sola classe, sulla base di diverse
metodologie di misura delle distanze nello spazio delle
caratteristiche.
Nel caso di classificazione Soft, il prodotto che si ottiene è
costituito da k mappe tematiche, una per ogni classe tematica
stabilita in partenza, in cui viene associata ad ogni pixel
dell’immagine, una probabilità di appartenenza a ciascuna di
queste classi.
La classificazione e l’interpretazione
59
Figura 2.11 Diversi prodotti delle classificazioni Hard (MDM, parallelepipedo, SAM, Maximum Likelihood ) e Soft (fuzzy, reti neurali). (Gomarasca M. 2004)
La classificazione e l’interpretazione
60
Di seguito si forniscono esempi dei più utilizzati classificatori
che operano in logica booleana (Hard o Rigidi).
- Minimum Distance from Mean (MDM)
All’interno dello spazio delle caratteristiche l’algoritmo
misura, per ogni pixel individuato dal vettore x, la distanza
dal punto medio μi dei cluster, composti dai pixel di training
di ogni classe ωi .
Il pixel viene assegnato alla classe ωi per cui la distanza
d(x) risulta minore:
un pixel
Si noti che la funzione di distanza d(x) può essere una
qualsiasi di quelle illustrate nel capitolo sulla separabilità
delle classi, tuttavia un criterio di scelta può essere quello di
valutare il grado di dispersione dei cluster e quindi il grado
di compattezza.
Figura 2.12 Esempio di assegnazione del pixel 1 ad una classe tematica, all’interno dello spazio delle caratteristiche, sfruttando il metodo MDM. (Lillesand T.M. et al., 1994)
La classificazione e l’interpretazione
61
- Box (algoritmo del parallelepipedo)
Per tenere conto del diverso grado di dispersione dei cluster
delle classi tematiche, si ricorre ad un algoritmo che
“racchiuda” al’interno di due limiti (superiore ed inferiore)
per ogni banda spettrale, tutti i pixel di training relativi alla
classe in questione. L’appartenenza di un pixel ad un cluster
è stabilita se il valore del suo vettore posizione x è
compreso nei limiti del cluster stesso.
un pixel
Si noti che con questo algoritmo è possibile che certi pixel
non ricadano in nessun parallelepipedo e quindi rimangano
inclassificati.
La definizione dei limiti (e quindi la costruzione del
parallelepipedo) può avvenire anche attraverso la misura
della dispersione dei clusters, mediante i parametri statistici
di media μi e deviazione standard :
e
Allora vale lo stesso :
Figura 2.13 Esempio di assegnazione dei pixel 1 e 2, all’interno dello spazio caratteristiche, sfruttando il metodo Box. (Lillesand T.M. et al., 1994)
La classificazione e l’interpretazione
62
- Gaussian maximum likelihood (MLL)
In questo caso dai training sites è necessario ricavare
posizione del pixel medio , varianza e deviazione standard
di ogni classe. Tali parametri stabiliscono forma e
posizione della nuvola del cluster, relativo ad ogni classe.
Si assume inoltre, che la distribuzione di probabilità che
caratterizza ogni classe sia di tipo normale, gaussiana.
Si definiscono, quindi, delle superfici concentriche di
equiprobabilità di appartenenza, che si allontanano dal
punto medio della classe.
La distribuzione di densità di probabilità (pdf) |
associata alla classe è data dalla forma
|
√
Ovviamente, il gradiente di probabilità per forme elissoidali
sarà minore lungo gli assi a massima varianza e maggiore
lungo quelli a minima varianza.
Figura 2.14 Rappresentazione della funzione di densità di probabilità in uno spazio delle caratteristiche bi-dimensionale.(Lillesand T.M. et al., 1994)
La classificazione e l’interpretazione
63
Per ogni pixel x, l'algoritmo calcola la verosimiglianza
(funzione pdf) di appartenere ad ognuna delle classi e lo
assegna a quella per cui si ha la verosimiglianza massima
(viene cioè massimizzata la pdf).
Se tutti i valori di probabilità a posteriori risultano al di sotto
di una certa soglia Si, ritenuta significativa per la classe
spettrale , i pixel possono venire “etichettati” come
inclassificati.
Figura 2.15 Esempio di assegnazione del pixel 1 ad una classe, all’interno dello spazio delle caratteristiche, sfruttando il metodo MLL. (Lillesand T.M. et al., 1994)
- Spectral Angle Mapper (SAM)
Rappresenta l’algoritmo di riferimento per la classificazione
di immagini iperspettrali.
Esso confronta direttamente il pattern dei training sites con
quello del pixel da classificare, definito nello spazio
multispettrale, dal vettore x.
Per ogni classe, il pattern di riferimento per il confronto è
ottenuto dalla media delle firme spettrali dei training sites.
La classificazione e l’interpretazione
64
La differenza dagli altri metodi consiste nel fatto che la
similarità tra le firme spettrali è espressa come distanza
angolare tra i due vettori nello spazio delle caratteristiche.
Il pixel rimane inclassificato, nel caso in cui la distanza
angolare superi una soglia fissata a priori.
Dall’enunciato di prodotto scalare tra vettori
∑
Da cui si ricava che l’angolo compreso tra i due vettori è
(∑
√∑
√∑
⁄ )
L’angolo è quindi una misura di distanza angolare in
radianti che va da 0 a ⁄ .
Figura 2.16 Rappresentazione della misura di distanza angolare nello spazio delle caratteristiche.
La classificazione e l’interpretazione
65
L’evoluzione dei sensori ha portato ad alte risoluzioni spaziali,
garantendo nelle immagini, dimensioni del pixel relativamente
piccole (anche 0,50 m a terra). Da questi valori ci si aspettava
di avere pixel con caratteristiche spettrali pure, facilmente
inseribili nelle diverse classi tematiche .
Di fatto questo non è accaduto, poiché la più alta risoluzione
spaziale ha portato alla comparsa di nuovi dettagli, che prima
non venivano nemmeno captati.
Il problema dei pixel misti, ovvero quei pixel il cui livello di
grigio è dato dal contributo di più categorie di superficie, e
quindi di più pattern spettrali, continua ad esistere.
Essi evidenziano i limiti di una classificazione di tipo Hard
(convenzionale) e portano in primo piano la necessità di un
diverso approccio di classificazione : quello Soft (non
convenzionale).
Questi diversi classificatori partono dal presupposto che la
risultante spettrale di un pixel misto raramente è data da una
relazione lineare (linear mixing) dei vari costituenti. Emerge
allora il concetto di appartenenza parziale alle diverse classi
tematiche, dove per ogni classe viene creata una carta tematica
e ad ogni pixel è associato un grado (o probabilità) di
appartenenza a tale classe.
Le k carte tematiche possono essere successivamente elaborate
per per produrne una unica, sfruttando il criterio di
massimizzazione:
ogni pixel
dove si è indicato con il grado di appartenenza del pixel alla
classe i-esima.
Fra i classificatori Soft più utilizzati si citano:
- Approccio in logica Fuzzy;
- Reti Neurali Artificiali (ANN);
La classificazione e l’interpretazione
66
2.2.2 Classificazione pixel-based di tipo non guidato (Unsupervised)
La classificazione non guidata parte dal presupposto per cui ad
oggetti simili sulla scena, corrispondano pattern spettrali simili;
questo fatto si concretizza nello spazio delle caratteristiche con la
formazione di clusters più o meno compatti, ad opera dei vettori
associati ai pixel dell’immagine.
Le fasi di una classificazione non guidata si riducono a :
› Attività di clustering
Vengono definiti i cluster attraverso criteri di compattezza e
separabilità e vengono associati i pixel ad uno o ad un altro
cluster, sulla base di misure di distanza;
L’assegnazione dei pixel ai cluster viene eseguita attraverso
misure di distanze nello spazio delle caratteristiche.
Di seguito si citano le più note, operanti sul vettore posizione x
del pixel da analizzare, e sul centroide del cluster preso in
esame mi .
- L1 (City block) ∑ | |
- L2 (Euclidea) ‖ ‖ √∑
L’attività di clustering è un’attività di tipo iterative; ogni
qualvolta venga assegnato un pixel ad un cluster, è necessario
calcolare di nuovo il punto individuato come centroide.
L’intera procedura è raccolta nell’Algoritmo delle medie mobili
(k-means).
La classificazione e l’interpretazione
67
Figura 2.17 Illustrazione del processo iterativo k-mean. Vengono messi in risalto i valori degli errori di classificazione (Sum of Squared Errors) dei pixel, in ciascuno step. (Richard, Jia 1999)
- L’idea centrale dell’algoritmo sta nella definizione a priori
del numero k di cluster che ci si aspetta di trovare; per
ognuno si definisce un plausibile punto centroide mi (con
i=1,…,k);
questa parte iniziale è importante poiché la scelta oculata
di questi due parametri, aiuta successivamente la
convergenza del processo.
- A questo punto si procede con l’assegnazione dei pixel ai
cluster, cioè l’attività di clustering sopracitata.
La classificazione e l’interpretazione
68
- Sulla base degli assegnamenti fatti, si ricalcolano i nuovi
vettori delle medie mi’ e si valuta la migrazione netta del
vettore delle medie dal passo precedente.
Si definisce qui il criterio di arresto in termini di
spostamento massimo tra due iterazioni consecutive n-1
ed n.
La classificazione e l’interpretazione
69
2.3 Classificazione Object-oriented
La procedura di classificazione object-oriented non è più basata sui
singoli pixel ma su aggregazioni di essi, chiamate object.
I valori radiometrici degli object derivano dalla media dei valori
radiometrici dei pixel che ne fanno parte, tuttavia essi portano con sé
molte più informazioni:
- Statistiche di colore
- Tessitura
- Forma
- Contesto
- Relazioni geo-spaziali
- Rapporti dimensionali
La disponibilità di un numero maggiore di informazioni permette di
meglio gestire le elevate risoluzioni spaziali e spettrali dei più recenti
sensori multispettrali.
Essa garantisce perciò una serie molto più numerosa e variegata di
feature o caratteristiche attraverso cui operare, diverse a seconda del
caso studio, e permette quindi di intraprendere un processo di
classificazione più vicino all’esperienza di interpretazione visiva
dell’operatore.
Il processo di classificazione object-oriented si compone
fondamentalmente di due attività:
- la segmentazione
- la classificazione
La classificazione e l’interpretazione
70
2.3.1 Segmentazione
La segmentazione è definita come “la ricerca di regioni omogenee
nell’immagine” (Darwish A., Leukert ., Reinhardt W. 2003), che verranno poi
chiamate object e da cui partirà la classificazione object-oriented.
Il criterio di omogeneità è inteso come una combinazione di colore
(livelli di grigio nelle diverse bande spettrali di acquisizione) e
proprietà di forma (compattezza e uniformità).
Gli approcci di segmentazione possono essere raggruppati in 3
categorie:
- Point based , basata sull’individuazione di soglie attraverso cui
discriminare diversi livello di grigio nelle bande spettrali;
- Edge based, basata sull’individuazione di margini tra ipotetici
objects;
- Region based , con cui vengono implementate azioni di
divisione (split) e unione (merge) al fine di soddisfare criteri di
omogeneità;
Il region based è uno degli approcci più semplici ma anche più
utilizzati; la formazione di regioni parte dall’accorpamento di pixel
attorno a seed point (semi, origini degli object). Questo tipo di
segmentazione presuppone un’accurata scelta di seed point e di
criteri di arresto alla crescita delle regioni.
Essa tipicamente conduce a risultati grossolani e non sempre
soddisfacenti.
Segmentazioni più precise possono invece derivare dalla conoscenza
pregressa di aree di training, da utilizzarsi come sorgenti di
informazioni per una segmentazione più efficace.
La formazione di object produce nuove informazioni: essi, una volta
creati, saranno anche dotati di attributi “relazionali”.
Possono essere instaurate relazioni di posizione reciproca, allo stesso
livello o fra differenti livelli di segmentazione; possono essere
costruite query3 sull’adiacenza fra object o sulle dimensioni (assolute
o relative).
Idealmente, l’obiettivo che ci si pone, intraprendendo algoritmi di
segmentazione automatica, è quello di individuare tutti gli oggetti di
3 Query : interrogazione di un calcolatore o di un database, per compiere determinate azioni
su un gruppo di dati.
La classificazione e l’interpretazione
71
interesse all’interno dell’immagine; risultano subito evidenti, tuttavia,
problemi di gestione della moltitudine di dati geometrici, semantici e
di riflettanza.
Queste difficoltà vengono affrontate con algoritmi di segmentazione
multirisoluzione (ad esempio quello implementato nel software
eCognition di Trimble)
L’algoritmo di segmentazione multirisoluzione è di tipo region based.
Parte considerando ogni pixel come un oggetto separato che,
successivamente, viene fuso ad altri, formando oggetti più grandi.
Le decisioni di fusione sono basate su criteri di omogeneità locale che
si instaurano fra oggetti adiacenti: la fusione è portata a termine nel
momento in cui una certa soglia di omogeneità è raggiunta.
Come spiegato da Baatz e Shape, il criterio decisionale per applicare il
merge, in ciascuno step, si basa su criteri di omogeneità locale che si
instaurano fra oggetti adiacenti.
È possibile impostare l’analisi di omogeneità su tutte le bande in cui è
stata acquisita la scena, ma anche solo su alcune, o infine impostare
diversi “pesi” a ciascuna di esse.
La determinazione degli object che dovranno subire un passaggio di
merge, avviene attraverso un certo tipo di Decisioni Euristiche
(Fitting, Best fitting, Local mutual best fitting, Global mutual
best fitting, Distributed treatment order of image object ).
(Baatz M., Shape A., 2000)
Ad ogni passaggio di merge viene associata una “funzione costo”
chiamata Degree of fitting, che esprime il grado di aggregazione di
pixel.
Il Degree of fitting (Dof) rappresenta il Parametro Scala (PS), definito
a priori dall’utente, ed indica le dimensioni degli object: un basso
Degree of fitting genererà object di dimensioni ridotte, al contrario,
un alto Degree of fitting produrrà object di dimensioni più elevate.
Il Dof funge in questo senso da criterio di arresto, nel processo
iterativo della segmentazione.
La classificazione e l’interpretazione
72
La segmentazione multirisoluzione deve il suo nome alla possibilità di
realizzare una rete gerarchica (o “ad albero”) di image object,
organizzata su più livelli di segmentazione in cui, ad ognuno, è
associato un diverso parametro di scala che definisca un criterio di
omogeneità differente.
Figura 2.18 Tipica struttura “ad albero” creata a partire da una segmentazione multirisoluzione
Nella pratica, una volta generato il primo livello di poligoni è possibile
generare n nuovi livelli gerarchici di livello superiore al primo (se il
fattore di scala è più grande e quindi poligoni mediamente più grandi)
oppure di livello inferiore (se il fattore di scala è più piccolo e quindi i
poligoni mediamente più piccoli).
Si noti che tutti i poligoni di livello gerarchico inferiore sono sempre
contenuti in quelli di livello gerarchico superiore.
È infine caratterizzante l’aspetto di connessione logica tra livelli
gerarchici differenti che sta alla base delle query relazionali istituibili
fra object.
La classificazione e l’interpretazione
73
La valutazione della bontà di una segmentazione dipende dagli
obbiettivi di classificazione successivi, dal momento che gli object
costituiscono il materiale di base con cui condurla.
Si possono comunque definire degli standard da ricercare nella
segmentazione, quali:
- Alta qualità degli image object di partenza, di modo che si
prestino con versatilità a diversi problemi e studi della stessa
tipologia;
- Multirisoluzione, cioè il Parametro Scala deve essere il primo
parametro da settare in maniera ottimale per favorire la
classificazione che si sta andando a fare; l’utilizzo di più livello
gerarchici può sicuramente essere d’aiuto;
- Risoluzione degli attributi, in funzione della scala, secondo cui
l’analisi di feature e la definizione di query, deve essere
condotta fra object con risoluzione simile;
- Riproducibilità;
- Universalità, cioè la segmentazione deve potere adattarsi a
diversi tipi di dati;
- Velocità di elaborazione ragionevole, anche su sistemi di dati di
grandi dimensioni.
Un prerequisito importante, per una soddisfacente classificazione
delle immagini col metodo object-oriented, è una corretta
segmentazione iniziale.
La classificazione e l’interpretazione
74
2.3.2 Classificazione
L’approccio di classificazione object-oriented non definisce
intrinsecamente un metodo di classificazione.
Una volta terminata la fase di segmentazione (con uno o più livelli
gerarchici), la classificazione può poi procedere con approccio
Supervised o Unsupervised, teoricamente tutti gli algoritmi sviluppati
per classificazioni pixel-based possono essere applicati: sia con logica
booleana, sia probabilistica.
La classificazione di tipo object-oriented, in particolare quella
derivante da una segmentazione multirisoluzione, permette di
ampliare il numero di fonti informative sfruttabili nella classificazione,
poiché maggiori sono le informazioni associabili ai poligoni, rispetto a
quelle disponibili per i singoli pixel di un’immagine. (Chirici G. et al., 2003 )
Indipendentemente dal livello gerarchico, le informazioni deducibili da
un poligono sono di tipo:
- Spettrale : dati statistici (ad es. deviazione standard, media
minimo, massimo, ecc.) calcolati per ogni poligono a partire dai
valori di digital number dei rispettivi pixel afferenti, per ogni
banda di acquisizione dell’immagine;
- Geometriche : informazioni derivanti dalle caratteristiche
geometriche dei singoli poligoni (come area, perimetro, forma),
ma anche quei rapporti relazionali di localizzazione spaziale (ad
es. “più a nord di..” o “più a est di…”);
- Tessiturali : possono derivare dall’analisi dei singoli pixel o di
poligoni ottenuti da livelli di segmentazione inferiori (dove il
fattore di scala sia abbastanza piccolo per cogliere questo
aspetto);
- Gerarchiche : statistiche calcolate per ogni poligono del livello
di segmentazione che si analizza, sulla base di poligoni
omologhi, su un diverso livello gerarchico;
- Attributi tematici : tutte quelle informazioni derivanti da strati
informativi accessori o dati ancillari (ne sono esempio i DSM, i
dati climatici, ecc.);
La classificazione e l’interpretazione
75
Sono tuttavia due le strategie di classificazione object-oriented più
comuni: in parallelo o in serie.
Durante una classificazione in parallelo vengono definite tutte le
classi tematiche contemporaneamente e l’assegnazione avviene in un
unico processo; si compone delle seguenti fasi:
- definizione della nomenclatura della classificazione;
- definizione del livello della segmentazione da classificare (nel
caso preceda una segmentazione multirisoluzione);
- selezione delle informazioni associate ai poligoni da classificare;
- acquisizione manuale di un certo numero di training object;
- applicazione di un algoritmo di classificazione: scelta di feature
e soglie.
Una classificazione in serie viene detta anche “ad albero”.
L’immagine è infatti analizzata con dettaglio tematico
progressivamente crescente, con una segmentazione post-
classificazione.
Si compone delle seguenti fasi:
- definizione del sistema di nomenclatura con struttura ad albero
a dettaglio progressivo;
- classificazione al primo livello tematico del sistema di
nomenclatura;
- segmentazione post-classificazione con dettaglio geometrico
maggiore. La segmentazione post-classificazione permette di
derivare nuovi poligoni geometricamente coerenti con il
risultato della classificazione del livello gerarchico superiore. Il
processo viene reiterato per tutti i livelli gerarchici del sistema
di nomenclatura e per ognuno di essi viene realizzato anche un
nuovo livello di segmentazione.
In ambedue i casi, si noti che tutto il processo può essere reiterato
nel caso in cui l’accuratezza della classificazione non soddisfi le
aspettative.
In questo caso, si procede acquisendo nuovi poligoni di training,
cambiando la base informativa (o il peso delle diverse informazioni)
oppure il sistema di nomenclatura.
La classificazione e l’interpretazione
76
La classificazione e l’interpretazione
77
2.4 Validazione
Si definisce accuratezza di una mappa tematica la misura dell’accordo
tra la mappa tematica, ottenuta attraverso la classificazione, e un
riferimento che si assume come corretto, cioè come “verità”.
(Brivio P.A. et al., 2006)
La mappa di riferimento viene costruita sulla base di informazioni
dettagliate, la cosiddetta ground truth o “verità a terra”. Van
Genderen et al. (1978) riportano il procedimento adottato per una
corretta selezione dei pixel su cui condurre la verifica di accuratezza.
I temi principali indagati con una verifica di questo tipo riguardano:
- La natura degli errori, cioè QUALI classi vengono confuse nella
mappa ;
- La frequenza degli errori, cioè quanto spesso il procedimento
incappa in queste situazioni di confusione;
- La grandezza degli errori, ovvero una sorta di misura della
gravità dell’errore. Essa dipende dalle classi che vengono
confuse tra loro: l’erronea classificazione di un area di verde
urbano, con la copertura di un edificio è considerata certamente
più grave della classificazione di una copertura in tegole per
una copertura in lamiera.
- La sorgente degli errori, cioè la causa;
prendendo in considerazione il solo caso di classificazione
automatica e tralasciando quello di fotointerpretazione, per il
quale gli errori sarebbero imputabili in primo luogo al tipo di
generalizzazione del soggetto, la valutazione degli errori
coinvolge diversi fattori.
Le prime occasioni di errore da valutare sono da ricercarsi nella
risoluzione del sensore (spaziale, spettrale e radiometrica), nel
pre-processamento subito dall’immagine, precedente la
classificazione e nell’algoritmo classificatore.
I metodi di valutazione dell’accuratezza di una mappa possono essere
raggruppati in due famiglie che differiscono per approcci e costi
La classificazione e l’interpretazione
78
economici e computazionali completamente diversi: site-specific e
non-site-specific.
2.4.1 Accuratezza non-site-specific
Il metodo più elementare di verifica, consiste nella valutazione delle
aree complessivamente assegnate a ciascuna classe tematica e nel
confronto con le aree delle corrispondenti classi, nella carta assunta
come “verità”.
Ciò che si ottiene sono percentuali di riuscita nella classificazione
delle diverse entità in legenda.
Si noti che, così operando, non viene presa in considerazione il
disaccordo nella localizzazione spaziale delle classi.
Figura 2.19 Accuratezza basata sul solo confronto tra aree (non-site-specific): l’estensione delle aree occupate dalle classi è uguale, anche se la loro localizzazione è molto diversa: l’accuratezza valutata con questo metodo non è soddisfacente (Brivio P.A. et al., 2006).
La classificazione e l’interpretazione
79
2.4.2 Accuratezza site-specific
In questo metodo la valutazione dell’accuratezza si basa sugli accordi
pixel per pixel.
Questo tipo di verifica non viene solitamente condotto su tutti i pixel
della mappa bensì su gruppi di pixel opportunamente scelti e
localizzati al fine di garantire la bontà statistica della stima.
Dalla mappa utilizzata come verità a terra, viene estratto un
campione di pixel (o poligoni, nel caso di una classificazione object-
oriented), detti test sample, per ognuna delle classi tematiche
presenti in legenda.
Per una corretta stima dell’accuratezza è sconsigliato, nonché
controproducente, l’utilizzo dei pixel di training (utilizzati per una
eventuale classificazione Supervised) come test sample.
Il metodo standard di raccolta delle informazioni, derivanti dal
confronto fra il set di test sample, e gli omologhi site sull’immagine
classificata, è rappresentato dalla confusion matrix.
La confusion matrix riporta sulle righe le classi tematiche (At, Bt, Ct)
della mappa realizzata, da verificare, mentre le colonne raccolgono le
classi di ground truth (Av, Bv, Cv).
Figura 2.20 Esempio numerico di una matrice di confusione per l’accertamento dell’accuratezza della classificazione (Gomarasca M., 2000).
La matrice di confusione viene utilizzata come base per la costruzione
di una serie di misure di accuratezza.
La classificazione e l’interpretazione
80
Le grandezze principali che è interessante interpretare vengono
formulate di seguito:
1) Accuratezza globale (overall accuracy): il rapporto tra il totale
degli accordi e il totale dei test sample.
Figura 2.21 Esempio numerico di overall accuracy
L’accordo fra i test sites e i test samples si trova sulla
diagonale; il totale di campioni presi in considerazione per la
verifica risiede nell’angolo terminale di righe e colonne;
∑
2) Accuratezza dell’utente (user accuracy) : il rapporto, definito
per ogni classe i, di test site corretti, sul totale dei test sample
associati a tale classe.
Figura 2.22 Esempio numerico di user accuracy
La classificazione e l’interpretazione
81
3) Accuratezza del produttore (producer accuracy) : il rapporto,
per ogni classe i, di test site corretti, sul totale dei test sample
presenti nella mappa di riferimento.
Figura 2.23 Esempio numerico di producer accuracy
4) Errore di Commissione (Commission error) : indica per ogni
elemento associato, nella classificazione, alla classe i, la
probabilità condizionale che appartenga alla classe k , nel dato
di riferimento.
Figura 2.24 Esempio numerico di commission error
∑
5) Errore di Omissione (Omission error) : indica, per ogni
elemento, che nel dato di riferimento appartiene alla classe k,
la probabilità condizionale che esso sia stato assegnato, nella
mappa tematica, alla classe i.
Figura 2.25 Esempio numerico di omission error
∑
La classificazione e l’interpretazione
82
Capitolo 3
L’uso del telerilevamento
in ambito urbano
Nelle ultime decadi, grazie alla possibilità di osservare grandi porzioni
di territorio, aree difficilmente accessibili e di investigare nelle diverse
bande dello spettro elettromagnetico, il telerilevamento satellitare è
diventato una delle principali risorse per la raccolta di informazioni sul
territorio.
Nell’ambito delle indagini sul territorio a scala urbana, tematica
trattata nel presente lavoro, un grande vantaggio è rappresentato
dalla possibilità di effettuare misure frequenti e regolari nel tempo.
In generale, le applicazioni di dati telerilevati in aree urbane sono le
seguenti:
L’uso del telerilevamento in ambito urbano
84
- Realizzazione di mappe di uso e copertura del suolo;
Figura 3.1 Mappa tematica uso e copertura suoli (Armano, De Cecco, Boesso e Del Re, TELERILEVAMENTO E URBANISTICA, 2011)
- Indagini sugli effetti di catastrofi naturali;
Figura 3.2 Cambiamenti nel centro abitato di Boumerdes, Turchia, tra il 22 Aprile 2002 e il 18 Giugno 2003 (Bitelli, Camassi, Gusella e Mognol, IMAGE CHANGE DETECTION ON URBAN AREA: THE EARTHQUAKE CASE, 2001)
- Analisi, stime e previsioni di fenomeni urbani quali “Urban
Sprawl” (espansione urbana incontrollata) e la domanda idrica
di una grande città ;
Figura 3.3 Domanda idrica città di Madrid m3/anno ha
(Albizua, Donezar e Ibànez, MONITORING URBAN
DEVELOPMENT CONSOLIDATION FOR
REGIONAL MANAGEMENT ON WATER SUPPLY USING
REMOTE SENSING TECHNIQUES, 2011)
L’uso del telerilevamento in ambito urbano
85
- Ricostruzioni 3D di nuclei o aree abitative;
Figura 3.4 Modello 3D di un particolare di centro abitato, realizzato su una classificazione di copertura del suolo.
La potenza dei prodotti raster e vettoriali del telerilevamento (come
mappe tematiche, ortofoto o Modelli Digitali del Terreno ) sta nella
possibilità di essere utilizzati all’interno di un Sistema Informativo
Territoriale, attraverso i software di tipo GIS (Geographic Information
System).
Essi permettono di archiviare le informazioni in dati di tipo geometrico
ed alfanumerico, organizzate in “strati informativi” cioè layer a
contenuto informativo omogeneo.
Una volta archiviati, è possibile agire sui dati mediante operazioni di:
- Georeferenziazione (passaggio tra diversi sistemi di coordinate
o georeferenziazione di dati che originariamente non lo sono);
- Attività di Query (interrogazione dei dati dal punto di vista
geometrico e geografico, o dal punto di vista degli attributi
associati );
- Attività di Overlay logico o matematico (funzioni che
consentono operazioni tra due o più layer informativi);
- Operazioni geometriche;
L’uso del telerilevamento in ambito urbano
86
3.1 Esempi di applicazioni
Di seguito una rassegna di esempi relativi all’impiego del
telerilevamento in ambito urbano.
La scelta è stata volta a sottolineare i diversi casi di studio in cui il
Telerilevamento si è dimostrato uno strumento efficace, nonché i
molteplici strumenti e strategie di classificazione automatica e semi-
automatica che è stato possibile costruire, a partire da dati
provenienti da missioni satellitari e Lidar.
"Image change detection on urban area: the earthquake case"
di G. Bitelli R. Camassi L. Gusella A. Mognol
Università di Bologna, Dipartimento di Ingegneria Civile, Chimica, Ambientale e dei
Materiali (DICAM) , 2004
Lo studio propone un’integrazione dei classici metodi di rilievo dei
danni provocati da un sisma, con un approccio di riconoscimento ed
identificazione semi-automatico attraverso il telerilevamento
satellitare.
Esso interessa, nella fattispecie, la valutazione degli effetti provocati
da due eventi sismici molto distruttivi: quello di Marmara (Turchia,
1999) di Magnitudo 7 s.Richter. e quello di Boumerdes (Algeria,
2003) di Magnitudo 6.8 s.Richter.
Utilizzando, come risorse informative, immagini a medio-alta e alta
risoluzione provenienti dai sensori ETM+(su Landsat 7), IRS e
QuickBird, si vuole produrre una mappa degli edifici danneggiati,
mediante un confronto tra le immagini pre-evento sismico e post-
evento sismico.
L’estrazione di informazioni da questo dataset, avviene attraverso
una classificazione di tipo object-oriented, attraverso il software
ECognition.
L’uso del telerilevamento in ambito urbano
87
dati DATA SET per il sisma di Marmara
ETM+ 7 bande multispettr + 1 pan risol 30m + 15m
IRS 1 pan risol 5m
DATA SET per il sisma di Boumerdes
QuickBird 4 bande multispettr + 1pan risol 2,8m + 0,7 cm
IRS 1 pan risol 5m
procedura di classificazione
SEGMENTAZIONE MULTIRESOLUTION, con il software eCognition , sulle immagini pre e post-sisma, per ottenere regioni/oggetti a riflettanza paragonabile.
ESAME VISIVO, per capire quali siano le effettive differenze di riflettanza spettrale fra oggetti omologhi, ottenuti coregistrando le immagini dei diversi periodi.
classificazione degli "oggetti edifici" e del loro grado di danneggiamento attraverso una soglia numerica nel valore medio di riflettanza
A questo punto si passa ad una procedura automatica:
Individuazione delle features e dell’algoritmo ottimali per la classificazione automatica di edifici danneggiati
Questa procedura verrà effettuata con un approccio PIXEL BASED e successivamente OBJECT BASED.
valutazione dell'accuratezza per entrambi i metodi
Tab 3.1 Image change detection on urban area: the earthquake case
L’uso del telerilevamento in ambito urbano
88
"Rilevazione delle aree verdi nelle città italiane tramite
immagini ad alta risoluzione”
di Bonora N., Sambucini v., Marinosci I., Azzolini F., Baiocco F.,
Visentin R. e Marinelli M.
Rivista italiana di telerilevamento, 2008
In questo studio si è scelto di mappare diverse classi di copertura del
suolo di tipo vegetazionale nella Città di Roma (56,536 km2).
Per fare ciò sono state sfruttate le immagini ad alta risoluzione
provenienti dal sensore QuickBird, che hanno permesso di ottenere
una grande precisione a livello geometrico, ma al contempo una
ridondanza di informazioni di tipo spettrale, che, a tratti, non ha
facilitato la procedura di riconoscimento.
Per la fase di classificazione, è stata scelta una procedura
semiautomatica che seguisse il metodo delle reti neurali artificiali.
L’uso del telerilevamento in ambito urbano
89
dati DATA SET
QuickBird
4 bande multispettr (NADIR) risol 2,44 m
1 pan (NADIR) risol 0,61 m
procedura di classificazione
correzione geometrica e ortorettifica.
DATA FUSION, ricampionamento di tutti i pixel a
0,61 m, per ottenere la massima risoluzione spaziale anche nell’utilizzo del multispettrale. Coregistrazione delle immagini nelle diverse fasi temporali
ESAME VISIVO, per capire le effettive differenze di riflettanza spettrale fra oggetti omologhi,
CLASSIFICAZIONE del verde urbano attraverso una RETE NEURALE
4, creata con il
software SNNS:
- un primo strato di input formato da tanti nodi quante sono il numero di bande
spettrali che compongono l’immagine satellitare;
- per gli strati nascosti, la decisione del loro numero e del numero dei loro nodi
è dettata dall’esperienza dell’operatore;
- uno strato di output formato da un numero di nodi equivalente al numero
delle classi da rappresentare.
Il prodotto è un’immagine raster vettorizzato
VERIFICA DI ACCURATEZZA:
Sulla scena è stata costruita una griglia quadrata con 462 celle di lato 350,8 m, nel sistema di coordinate UTM33N, datum WGS84. É stato selezionato in modo casuale il 10% delle celle, per un totale di 46. In ogni cella sono stati selezionati (sempre in modo casuale) 4 punti, per un totale di 184 punti di controllo. Intorno ad ognuno dei punti sono state create aree circolari di circa 380 m
2 di
superficie (raggio di 11 m). Di queste aree ne sono state scelte 12, di cui controllate in campo 10 in quanto 2 sono risultate inaccessibili.
L’errore medio di classificazione del singolo pixel risulta del 6,88 %
Tab 3.2 Rilevazione delle aree verdi nelle città italiane tramite immagini ad alta
risoluzione
4 Una rete neurale artificiale (ANN) è una forma di intelligenza che cerca di imitare alcuni modi di funzionamento del cervello umano. Le più comuni sono le cosiddette “reti a percettoni multistrato”, dove il percettone consiste in un singolo nodo che riceve in ingresso dei segnali, con un certo peso, e fornisce dei risultati, secondo una certa regola. (Brivio, Lechi e Zilioli: Principi e metodi di telerilevamento, CittàStudi Edizioni, Bologna, 2006, 401-
409)
L’uso del telerilevamento in ambito urbano
90
" Monitoring urban development consolidation for regional
management on water supply using remote sensing techniques”
di Lourdes Albizua, Uxue Donezar e Juan Carlos Ibáñez
Italian society of remote sensing, 2011
In questo elaborato viene presentato lo studio del rapporto fra
domanda e offerta idrica della Città di Madrid (8021,8 km², Spagna)
strettamente connesso alla crescita urbana, con previsioni e stime
della crescita di domanda idrica, per i successivi 50 anni.
Viene presentato come risultato un database cartografico, inserito nel
GIS “ Canal de Isabel II”, che faccia da supporto ad eventuali lavori di
sviluppo e potenziamento delle infrastrutture, volti a venire incontro
alla domanda idrica futura.
Il dataset si compone di immagini dal satellite SPOT5 raccolte con
cadenza temporale, e di immagini dal satellite QuickBird, per la
validazione dei risultati.
La classificazione condotta è di tipo object-oriented.
La stima di domanda idrica viene costruita sommando i contributi di
utilizzo pro-capite e di irrigazione delle aree vegetate.
L’uso del telerilevamento in ambito urbano
91
dati DATA SET
SPOT5 bande multispettr + pan risol 10m multisp + 2,5m pan
QuickBird bande multispettr + pan risol 2,4m multisp + 0,6m pan
procedura di classificazione
Questo lavoro si articola in 3 macrofasi:
1) Definizione di un database cartografico che monitori i cambiamenti nelle categorie di interesse ,effettuato mediante le immagini SPOT5: 2 categorie di urbanizzato, 3 categorie di verde e uno di substrato uniforme (suolo di vario tipo).
2) Image processing base: ortorettifica, correzioni atmosferiche e radiometriche, pansharpening.
- Segmentazione
- CLASSIFICAZIONE OBJECT ORIENTED :
vengono registrati i cambiamenti tra un'acquisizione di dati e l'altra.
- Delimitazione aree vegetate(NDVI).
- Comparazione fra i risultati di un immagine SPOT5 e una QuickBird: una peggiore risoluzione spaziale (SPOT5) tende a sovrastimare le aree verdi e le zone con elementi di urbanizzazione.
3) stima della domanda di risorsa idrica, secondo modelli.
Realizzazione di un DATABASE CARTOGRAFICO basato sulla domanda di risorsa idrica, che verrà integrato in un dato GIS, sotto forma di mappe tematiche, utili alla generazione periodica di report.
Tab 3.3 Monitoring urban development consolidation for regional management on water supply using remote sensing techniques
L’uso del telerilevamento in ambito urbano
92
" A hybrid multi-step approach for urban area mapping in the
Province of Milan, Italy”
di Villa P., Boschetti M., Bianchini F. e Cella F.
Italian society of remote sensing, 2011
Lo studio, condotto sull’area della provincia di Milano, si incentra sulla
mappatura delle aree urbane, al servizio del controllo dello sviluppo
ambientale.
Utilizza, come dato, immagini di medio-alta risoluzione provenienti
dai satelliti Landsat5 e SPOT4, raccolti con continuità durante gli
ultimi vent’anni.
La redazione della mappa di uso del suolo viene redatta in tre fasi:
- Una prima classificazione di tipo pixel-based;
Una seconda, object-oriented, incentrata sul terreno
urbanizzato, ma ad uso agricolo;
- Definizione delle due macro-classi finali: Urbanizzato e Non
Urbanizzato;
- Al termine, viene condotta una validazione con calcolo
dell’accuratezza.
L'utilizzo finale del prodotto è duplice: da un lato si assiste al
cambiamento di uso del suolo durante gli anni in cui si è raccolto il
dato satellitare, conducendo statistiche di occupazione per ciascuna
classe di interesse; dall'altro si possono fare stime evolutive per
quanto riguarda l'area di occupazione di ogni classe, nei periodi
successivi.
L’uso del telerilevamento in ambito urbano
93
dati DATA SET
SPOT4 bande multispettr risol 30m
Landsat5 bande multispettr risol 20m
procedura di classificazione
Geocodifica, calibrazione radiometrica e correzione effetti atmosferici.
La mappatura si svolge con un processo "multistep" in 3 livelli:
1) definizione di 10 classi di copertura: si sfruttano indici
5 che combinano la riflettanza in più bande per identificare
materiali differenti. La CLASSIFICAZIONE È di tipo PIXEL-BASED.
2) Raggruppamento classi ottenute in 3 macro-classi: TERRENO NON OCCUPATO (dall'uomo), ACQUA, TERRENO OCCUPATO(dall'uomo).
3) Analisi dell'accuratezza
Tab 3.4 A hybrid multi-step approach for urban area mapping in the Province of Milan, Italy
5 Indici spettrali (IS): una qualche trasformazione delle misure spettrali, che permettano di massimizzare la sensibilità ad un determinato parametro di interesse e minimizzare la sensibilità a quelli che non interessano. Rappresenta quindi una via algebrica di enfatizzare la
riflettanza su bande di interesse, al fine di individuare una determinata firma spettrale. (Brivio, Lechi e Zilioli: Principi e metodi di telerilevamento, CittàStudi Edizioni, Bologna, 2006, 446-451)
L’uso del telerilevamento in ambito urbano
94
" Classification tree based building detection from laser scanner and
aerial image data”
di Leena Matikainen, Harri Kaartinen e Juha Hyyppä
ISPRS Workshop on Laser Scanning 2007 and SilviLaser 2007, IAPRS Volume
XXXVI, Part 3
Lo studio interessa l’area suburbana nei pressi di Helsinki (Finlandia),
chiamata Espoonlahti; la zona è caratterizzata da piccole colline
coperte di conifere, alberi decidui e bassa vegetazione.
Servendosi di dati da missioni Lidar, viene compiuto un lavoro di
individuazione e classificazione di edifici utilizzando in primo luogo un
dato DSM creato con la teconologia Toposys Falcon e , una volta
esaurito il dato di quota, si procede alla classificazione attraverso
delle ortofoto scattate da una Leica RC30.
Il lavoro vuole mostrare l’uso combinato del first pulse e last pulse
del raggio laser inviato dallo scanner, come tecnica di discriminazione
in quota tra soggetti edificio e soggetti vegetazione.
L’uso del telerilevamento in ambito urbano
95
dati DATA SET
DSM first pulse da first pulse di Toposys FALCON II risol 10punti/m2
DSM last pulse da last pulse di Toposys FALCON II risol 10punti/m2
ortofoto RGB da Leica RC30
procedura di classificazione
Il processo di classificazione si basa sui seguenti step:
1) segmentazione del DSM in regioni omogenee
2) prima classificazione degli oggetti in "suolo" e "edifici o alberi" sfruttando il dato di quota proveniente dai FIRST PULSE e LAST PULSE del laser.
3) separazione degli oggetti edifici e alberi dalla classe "edifici o alberi" sfruttando il dato dell'ortofoto aerea, della forma degli oggetti e della disposizione delle quote dei punti.
4) RAFFINAMENTO DELLA CLASSIFICAZIONE utilizzando criteri di vicinanza tra oggetti, di forma e dimensione. l'obbiettivo è di eliminare i piccoli oggetti non classificati.
5) operazioni di nuova segmentazione e/o MERGING in modo da ottenere oggetti corrispondenti a tetti.
Tab 3.5 Classification tree based building detection from laser scanner and aerial image data
L’uso del telerilevamento in ambito urbano
96
" Metodologie automatiche nell'elaborazione di immagini satellitari
stereoscopiche ad alta risoluzione per applicazioni ingegneristiche”
di Brigante R.
Università di Perugia – Dipartimento di Ingegneria Civile e Ambientale (DICA)
L'area di studio corrisponde ad una parte del comune di Foligno
(Perugia) di circa 150 Km2. La morfologia è abbastanza complessa: si
alterna tra aree rurali e boschive piuttosto estese, piccoli centri
storici, edifici isolati e piccole aree industriali;
anche le quote variano tra i 300 e i 1200 m s.l.m.
Lo studio svolge un’analisi ed elaborazione di immagini
stereoscopiche satellitari ad alta risoluzione riprese dal satellite
IKONOS nell'ottobre del 2006.
L’obiettivo è valutarne le possibili applicazioni ingegneristiche quali la
creazione di mappe di copertura del suolo.
L’uso del telerilevamento in ambito urbano
97
dati DATA SET
2 coppie stereoscopiche di immagini Ikonos 2006
pancromatico risol 1m
multisp RGB risol 4m
pansharpened6 risol 1m
procedura di classificazione
PRE-PROCESSING
1) correzione geometrica delle immagini (GCP )
2) Estrazione del modello digitale della superficie (DSM) : attraverso riprese stereoscopice Nadir e Off Nadir dell'area di studio (Along track)
3) viene generata l’ortofoto dell’intera area di studio.
4) controllo dei risultati mediante sovrapposizione con CTR
CLASSIFICAZIONE
1) Classificazione di tipo PIXEL BASED MULTISPETTRALE SUPERVISIONATA: prima assegnazione dei pixel alle diverse categorie di copertura del suolo sulla base dei valori di DN.
2) errori di misclassificazione ed erronea classificazione vengono affrontati utilizzando il dato di QUOTA.
Viene filtrato il dato DSM attraverso FILTRI DI ESALTAZIONE DELLE DIFFERENZE DI QUOTA per i diversi pixel (Sobel). L'informazione altimetrica , viene sfruttata per creare un nuovo prodotto: un nuovo raster differenza DSM-DTM .
Raffinamento della classificazione che integra il dato altimetrico con la classificazione precedente, attraverso l’informazione multispettrale.
Tab 3.6 Metodologie automatiche nell'elaborazione di immagini satellitari stereoscopiche ad alta risoluzione per applicazioni ingegneristiche
6 Pansharpening è un procedimento di fusione di immagini pancromatiche(ad alta risoluzione) e immagini a canali RGB(più bassa risoluzione, ma dotate del dato multispettrale). Il procedimento è meglio noto con tecnica IHS (Intensity, Hue, Saturation). Date tre bande dell’immagine multispettrale(nello spazio colore RGB), la trasformazione genera tre nuove bande, nello spazio IHS.Si sostituisce poi la componente I con un’altra immagine (nella fattispecie la pancromatica), e si ritorna allo spazio RGB. Ottengo quindi una nuova immagine a tre canali RGB con la risoluzione della pancromatica. (Brivio, Lechi e Zilioli:
Principi e metodi di telerilevamento, CittàStudi Edizioni, Bologna, 2006, 355-356)
L’uso del telerilevamento in ambito urbano
98
" Extraction of buildings and trees in urban environments”
di Norbert Haala, Claus Brenner
ISPRS Journal of Photogrammetry & Remote Sensing 54 , 1999
Il caso di studio interessa la città di Karlsruhe (Germania), vicino
Stuttgart.
Dalle sole risorse di un ortofoto CIR (Colour InfRared) e un DSM,
creato da un rilievo Lidar con laser scanner Toposys, viene creata una
mappa 2D di occupazione e copertura del suolo.
Il processo di classificazione è di tipo pixel-based non guidato e si
aiuta con l’algoritmo ISODATA.
Una volta in possesso della carta tematica, si procede ad “estrudere”
gli edifici, creando un modello 3D del sito, utilizzando, come
informazione di quota, il DSM.
L’uso del telerilevamento in ambito urbano
99
dati DATA SET
immagine CIR risol 0,5m
DSM da laser scanner Toposys risol 0,2m
procedura di classificazione
PRE-PROCESSING
1) digitalizzazione e ortorettifica immagine CIR
7
2) coregistrazione orto-immagine CIR e DSM
3) realizzazione del prodotto raster DSM-DTM
CLASSIFICAZIONE
1) CLASSIFICAZIONE PIXEL BASED NON SUPERVISIONATA (utilizzando l'immagine ortorettificata nei canali RGB e il prodotto del DSM "normalizzato" come quarto canale)
Si utilizza un criterio di classificazione ISODATA (Iterative Self-Organizing Data Analysis Technique) che ottimizza il numero di clusters nello spazio caratteristiche, da archiviare poi come categorie di classificazione dei pixel.
2) Viene utilizzata la classificazione, come base su cui costruire il MODELLO 3D del sito.
L'informazione DSM qui viene sfruttata sul modello 2D ottenuto dalla classificazione precedente, come informazione di quota con cui "estrudere" gli edifici.
Tab 3.7 Extraction of buildings and trees in urban environments
7 Immagine CIR (Color InfraRed) : immagini ottenute da sensori sensibili alla regione del visibile e del vicino infrarosso; sono utili particolarmente per separare l’acqua dalla
vegetazione, in quanto la prima riflette pochissimo nelle bande tra 0,8-0,9 micron, mentre la seconda riflette molto. (Brivio, Lechi e Zilioli: Principi e metodi di telerilevamento, CittàStudi Edizioni, Bologna, 2006, 188)
L’uso del telerilevamento in ambito urbano
100
" Optimisation of building detection in satellite images by combining
multispectral classification and texture filtering”
di Yun Zhang
ISPRS Journal of Photogrammetry & Remote Sensing 54 , 1999
Lo studio viene effettuato sull’intera area metropolitana della città di
Shanghai (30 km2 , Cina).
Il lavoro presenta un metodo veloce e accurato di individuazione
automatica di edifici sfruttando l'informazione multispettrale, del
sensore TM (a bordo del Landsat 5) e pancromatica , del sensore
HRV2 (a bordo dello SPOT1).
Viene effettuata anche l’analisi della texture che può rivelarsi
particolarmente utile per la valutazione dello sviluppo dell'area
metropolitana di una città in forte espansione come quella di
Shanghai.
L’uso del telerilevamento in ambito urbano
101
dati DATA SET
Bande 3,4, 7 sensore TM Landsat 5 1987
Pancromatico sensore HRV2 SPOT1 1989
procedura di classificazione
PREPROCESSING
Trasformazione IHS sulle immagini (si noti che la differenza temporale di cattura ha creato un decremento di accuratezza)
PRIMA CLASSIFICAZIONE Classificazione multispettrale di tipo pixel based non supervisionata ISODATA.
SECONDA CLASSIFICAZIONE
Viene svolta una CLASSIFICAZIONE CON ANALISI DI TEXTURE
L'analisi di tessitura in questo caso viene svolta con un metodo di misura statistica di secondo livello e in particolare quello della Matrice di co-occorrenza
8.
La MATRICE DI CO-OCCORRENZA agisce mettendo in luce i pixel con tessitura diversa, ovvero con DN nei livelli di grigio, di valore diverso. In virtù di questa disuguaglianza, vengono raggruppati in cluster.
Questo processo separa gli edifici dal contesto, grazie a differenze di radianza operate solo dalla tessitura.
Si noti che nei diversi cluster sono raggruppati i pixel appartenenti a edifici di simili dimensioni.
Tab 3.8 Optimisation of building detection in satellite images by combining multispectral classification and texture filtering
8 Matrice di co-occorrenza: strumento per l’analisi della tessitura nelle immagini digitali, basato sulla struttura spaziale dell’immagine stessa. La co-occorrenza identifica la proprietà congiunta, che a un livello di grigio i in posizione (x,y) sulla scena, corrisponda un livello j a distanza d con un certo angolo φ. La suddetta matrice rappresenta quindi la densità di probabilità delle transizioni da un livello di grigio i ad uno j per una certa distanza d e una certa direzione. (Brivio, Lechi e Zilioli: Principi e metodi di telerilevamento, CittàStudi
Edizioni, Bologna, 2006, 325-326)
L’uso del telerilevamento in ambito urbano
102
" Telerilevamento e urbanistica”
di Armano S., De Cecco A., Boesso F. e Del Re R.
http://www.qr3.it , 2012
In questo elaborato viene proposta un’indagine temporale sul
fenomeno dell’Urban Sprawl (espansione disordinata della città
diffusa) applicata alla città di Pordenone (Friuli Venezia Giulia, Italia)
attraverso i dati rilevati dai satelliti LANDSAT e SPOT .
All’interno dello studio viene illustrato il progetto “Moland”, sviluppato
con lo scopo di fornire uno strumento spaziale di pianificazione per
valutare, monitorare e modellare lo sviluppo di ambienti urbani e
regionali.
L’uso del telerilevamento in ambito urbano
103
dati DATA SET
LANDSAT serie 1985-2005
SPOT serie 1985-2005
procedura di classificazione
Le immagini vengono classificate attraverso procedure di CLASSIFICAZIONE AUTOMATICA secondo classi di copertura del suolo quali edificato, suolo nudo, prati, cespugli, boschi, strade. Attraverso le SERIE DI RIPRESE ad intervalli temporali, si pongono in luce le principali variazioni nelle classi durante il periodo considerato.
I risultati di questo processo hanno fornito una serie di CARTE TEMATICHE che rappresentano le diverse occupazioni del suolo durante gli anni, valutandone l'area (in ettari) attraverso strumenti di analisi GIS.
Tab 3.9 Telerilevamento e urbanistica
L’uso del telerilevamento in ambito urbano
104
" Building extraction from high resolution satellite images using
hough transform”
di D. Koc San, M. Turker
International Archives of the Photogrammetry, Remote Sensing and Spatial
Information Science, Volume XXXVIII (Kyoto, Japan) 2010
Nel presente elaborato viene condotta uno studio di mappatura di
edifici, su un centro abitativo di nuova realizzazione sito nel distretto
di Batikent (Ankara, Turchia), il “Batikent Project”, di 10 km2.
Nella fattispecie viene presentato un metodo di estrazione automatica
di edifici di diverse forme, ad uso residenziale e industriale,
attraverso riprese satellitari IKONOS ad alta risoluzione.
L’uso del telerilevamento in ambito urbano
105
dati DATA SET
IKONOS Img. multispettrale
IKONOS Img. pancromatica
Dato vettoriale esistente
procedura di classificazione
PREPROCESSING 1) PANSHARPENING su immagini
multispettrale
2) creazione di un DSM DA IMMAGINI pancromatiche STEREO
3) creazione di un DTM a partire dalle informazioni vettoriali a disposizione
CLASSIFICAZIONE
1) creazione del DSM normalizzato come prodotto del DSM-DTM e individuazione di edifici assegnando una soglia di 3m.
2)ortorettifica dell'immagine multispettrale attraverso il DSMnormalizzato co-registrato. (Verrà utilizzato come banda aggiuntiva nella classificazione)
3) viene calcolato l'indice di vegetazione NDVI e si definiscono così i possibili candidati come edifici.
4) l'algoritmo di classificazione SVM (Support vector machine)
9; esso
viene applicato tra le classi di "vegetazione" e "edifici".
5) vengono ESTRATTI I BORDI DELLE AREE (ancora in formato raster) riconosciute come "edifici" sull'immagine multispettrale.
6) Mediante l'applicazione della TRASFORMATA DI HOUGH
vengono convertititi i bordi degli edifici in formato vettoriale, attraverso un processo di riconoscimento algebrico di forme.
7) In questa maniera vengono raggruppati e definiti i confini degli edifici.
Tab 3.10 Building extraction from high resolution satellite images using hough transform
9 SVM(Support Vector Machine): tipologia di classificazione supervisionata che discrimina tra
due (e due sole) classi di output. Vengono forniti all’algoritmo dei training sites per ciascuna categoria e, successivamente, ogni nuovo pixel classificato, diventa egli stesso un nuovo training site.
L’uso del telerilevamento in ambito urbano
106
Capitolo 4
Sperimentazione condotta
sul caso studio (Bologna)
In questo capitolo vengono analizzate due diverse procedure di
classificazione object-oriented finalizzate all’estrazione automatica di
edifici in ambito urbano.
Lo studio è stato condotto su parte dell’area metropolitana della città
di Bologna (Emilia Romagna, Italia); l’area di studio ha un’estensione
di circa 4,85 km2 (44°30’09.75’’N 11°20’26.86’’E, 44°30’30.40’’N
11°18’57.66’’E, 44°29’22.45’’N 11°18’21.10’’E, 44°28’51.53’’N 11°19’52.53’’E).
Figura 4.1 Localizzazione dell’area di studio.
Sperimentazione condotta sul caso studio (Bologna)
108
I dati utilizzati comprendono un’immagine multispettrale ad alta
risoluzione, acquisita dal sensore WorldView-2, un modello digitale
della superficie (DSM) realizzato attraverso il processamento di dati
ottenuti da un volo Lidar sulla città, il modello digitale del terreno
(DTM) e la Carta Tecnica Comunale (CTC).
Per la sperimentazione sono stati utilizzati il software eCognition
Developer 8.8, distribuito da Trimble, e il software open source
QuantumGIS 1.8 Lisboa.
I due processi di classificazione proposti sono svolti in parallelo,
prendendo in esame dati diversi e sviluppando strategie indipendenti.
Per ciascuna delle procedure vengono evidenziate le principali fonti di
difficoltà ed incertezza; infine, vengono mostrati i risultati derivanti
dalle valutazioni dell’accuratezza al fine di mettere a confronto i
risultati ottenuti con le due classificazioni proposte.
Sperimentazione condotta sul caso studio (Bologna)
109
4.1 Dati a disposizione
Di seguito vengono presentati i dati a disposizione per il caso di
studio, evidenziandone caratteristiche tecniche e modalità di
acquisizione.
- Immagine multispettrale ad alta risoluzione WorldView-2
Viene analizzata una porzione di immagine WorldView-2 di circa
4,85 km2, acquisita in data 09/07/2011.
Figura 4.2 Porzione di immagine WorldView-2 analizzata nel caso studio (Bologna, 09/07/2011).
Il sensore WorldView-2 è il primo sensore ad alta risoluzione ad 8
bande di acquisizione. Opera ad un’altezza di 770 km, con tempo
di rivisitazione pari ad 1,1 gg ed è in grado di acquisire immagini
per 1000000 di km2 al giorno.
Sperimentazione condotta sul caso studio (Bologna)
110
BANDA INTERVALLO RISOLUZIONE
SPAZIALE
Coastal Blue 400-450 nm
2 m
Blue 450-510 nm
Green 510-580 nm
Yellow 585-625 nm
Red 630-690 nm
Red edge 705-745 nm
Near IR 1 770-895 nm
Near IR 2 860-1040 nm
Pancromatico 450-800 nm 0,5 m
Figura 4.3 Bande di acquisizione del sensore WorldView-2 (DigitalGlobe Imagery Support Data (ISD) Documentation) .
- DSM (Digital Surface Model)
Il DSM è stato ricavato dall’elaborazione dei dati ottenuti da un
volo Lidar del 2009, gentilmente messo a disposizione dall’Unità
SIT del Comune di Bologna. La nuvola di punti è stata convertita in
DSM mediante il software E3De (EXELIS, Visual Information
Solutions).
Il DSM è georeferenziato in UTM-WGS84 32N, ha una risoluzione
pari a 2m e la quota è di tipo ellissoidico.
Figura 4.4 a) nuvola di punti raccolta sull’area di interesse, dal dato Lidar. b) DSM ottenuto, rappresentato con palette di scala di grigi .
Sperimentazione condotta sul caso studio (Bologna)
111
- DTM (Digital Terrain Model)
Il modello digitale del terreno ha risoluzione spaziale di 5m ed è
stato ottenuto, in UTM-WGS84 32N, dagli OPEN DATA dal Catalogo
dei Dati Geografici della Regione Emilia
Romagna.(http://geo.regione.emilia-romagna.it/geocatalogo/)
Le quote sono riferite al geoide che, nel caso di Bologna, ha un
ondulazione media di 40m.
Figura 4.5 DTM dal Catalogo dei Dati Geologici, ritagliato sull’area di interesse, rappresentato con palette di scala di grigi .
- CTC (Carta Tecnica Comunale)
La Carta tecnica comunale di Bologna realizzata con metodo
fotogrammetrico diretto, aggiornata all’anno 2012, è stata ottenuta
dagli Open Data del Comune di Bologna (http://dati.comune.bologna.it/).
Il vettoriale, in UTM-ED50 32N, è stato riproiettato in UTM-WGS84
32N tramite Qgis al fine di renderlo coerente con l’immagine
WorldView2.
Sperimentazione condotta sul caso studio (Bologna)
112
Figura 4.6 Shapefile della CTC, ritagliato sull’area di interesse.
4.1.1 Pre-processamento dell’immagine WolrdView-2
L’immagine multispettrale WorldView-2 è stata ortorettificata.
impiegando il DSM con risoluzione pari a 2 m, ottenuto dal dato
LIDAR, e con l’ausilio di 5 punti di controllo (Ground Control Point). Le
coordinate e la quota di suddetti punti sono state ricavate dalla CTC.
In particolare, per l’informazione relativa alla quota è stato
considerato l’attributo QUOTA_G , contenuto nel database della CTC,
corrispondente alla quota geoidica di gronda.
Considerando che il DSM utilizzato per l’ortorettifica risulta essere in
quote ellisoidiche, alla quota di ciascun punto di controllo è stato
sommato un valore pari a 40 m conforme all’ondulazione geoidica
media nell’area indagata.
Sperimentazione condotta sul caso studio (Bologna)
113
Figura 4.7 Individuazione dei GCP sull’immagine WV-2 .
Sperimentazione condotta sul caso studio (Bologna)
114
Sperimentazione condotta sul caso studio (Bologna)
115
4.2 Estrazione automatica di edifici
L’obiettivo della sperimentazione è la definizione di metodologie per
l’estrazione automatica di edifici da immagini multispettrali ad alta
risoluzione.
La classificazione è stata sviluppata mediante il software eCognition
Developer 8.8, che opera con approccio object-oriented (Capitolo 2,
La classificazione e l’interpretazione).
Il generico processo di classificazione implementato dal software
eCogntion, si articola in diverse fasi :
- Creazione di un nuovo progetto (create new project), durante la
quale viene importata l’immagine da analizzare nei suoi canali
di acquisizione; ad ogni canale corrisponde un layer nel
progetto; eventuali dati accessori vengono inseriti anch’essi
come layer di progetto.
- Creazione di una strategia (Rule set), durante la quale viene
sviluppato, all’interno del Process tree, un processo gerarchico
costituito di fasi organizzate ad albero; ciascuna fase viene
concepita attraverso la scelta e la calibrazione di feature,
individuate nella Feature View. Una volta testato il processo e
approvati i parametri, la regola appena definita viene “appesa”
all’albero della strategia.
- Verifica dei risultati; eCognition 8.8 offre la possibilità di
verificare l’accuratezza della classificazione svolta attraverso un
processo site-specific, durante il quale vengono individuati i test
sites e viene stilata una matrice per il controllo dell’accuratezza
(confusion matrix).
- Una volta validato il processo di estrazione delle classi
tematiche, viene effettuata l’esportazione dei risultati. La
finestra di esportazione permette di scegliere il formato del file ,
la destinazione e le classi tematiche da esportare.
Sperimentazione condotta sul caso studio (Bologna)
116
Figura 4.8 Schema logico del processo di classificazione nell’ambiente di eCognition Developer. (eCognition 8.8: Guided Tour Level 1)
Ogni progetto parte, quindi, con la scelta dell’immagine da analizzare
e dall’inserimento di essa nell’elenco dei dati da utilizzare per la
classificazione. .
L’immagine WorlView-2 è acquisita in 8 canali spettrali diversi, per
cui, al momento dell’inserimento nel nuovo progetto, vengono creati
automaticamente 8 layer. Nello specifico è stato inserito, come dato
accessorio all’interno del progetto, il DSM .
Figura 4.9 Particolare di inserimento delle bande dell’immagine multispettrale, come layer del nuovo progetto, e rinomina di ciascuno di essi, con il nome della banda spettrale.
Sperimentazione condotta sul caso studio (Bologna)
117
La visualizzazione di tutti i layer o solo di alcuni, a seconda dell’utilità,
viene gestita nel workspace, attraverso le funzioni di VIEW.
Figura 4.10 Layer mixing per creare la visualizzazione dell’immagine nel canali RGB.
Le due procedure di classificazione proposte hanno previsto una
prima fase di segmentazione mediante l’impiego dell’algoritmo
“multiresolution segmentation” implementato in eCognition.
La segmentazione divide l’immagine in parziali regioni ovvero gruppi
di pixel, che presentano differenti caratteristiche, detti image
objects, che presentano caratteristiche omogenee; gli image objects
risultano collegati fra loro e formano un livello, il cosidetto “level”;
successive segmentazioni, ma anche attività di merge, danno origine
ad un progetto su più level indipendenti.
Sperimentazione condotta sul caso studio (Bologna)
118
Figura 4.11 a)b) Due diversi level all’interno dello stesso progetto, caratterizzati da
segmentazione multiresolution con fattori di scala successivi differenti.
c) Informazioni associate a ciascun poligono,
visualizzabili attraverso l’ Image object information.
A partire dalla segmentazione, le funzionalità del software, impiegate
nella sperimentazione, verranno citate durante l’illustrazione del
workflow .
In generale, la strategia di classificazione è sviluppata inizialmente su
un subset dell’immagine; una volta raggiunto l’obiettivo, la procedura
è stata applicata sull’intera area di studio.
Sperimentazione condotta sul caso studio (Bologna)
119
I risultati ottenuti dalle due diverse procedure di classificazione sono
stati esportati come shapefile10 : ad ogni oggetto classificato, è
associata una posizione nello spazio e una georeferenziazione nel
sistema di riferimento cartografico di progetto (UTM WGS84 32N).
Questo passaggio ha permesso di mettere a confronto i prodotti delle
due classificazioni con la CTC, all’interno del software QuantumGIS;
nello specifico, considerando il dato ottenuto nella CTC come verità a
terra (Ground truth) è stato possibile valutare l’accuratezza delle due
procedure di classificazione sviluppate.
10 Uno shapefile (.shp) è un formato vettoriale di registrazione di identità geometriche e delle loro informazioni associate, sviluppato da ESRI, ; esso registra i dati primitivi di geometria: punti, linee, poligoni e testi. questo file da solo è incompleto poiché interpretazione ed utilizzo dipendono dagli altri file associati, che registrano le informazioni attributarie, con estensioni .shp, .dbf, .shx.
Sperimentazione condotta sul caso studio (Bologna)
120
4.2.1 Estrazione basata sul solo dato multispettrale
La prima procedura di classificazione proposta ha previsto
l’identificazione degli edifici mediante l’elaborazione dell’immagine
WorldView-2 senza l’ausilio di dati aggiuntivi.
Innanzitutto, è creato un New Project in cui, come layer, compaiono
le 8 bande di acquisizione del sensore WorldView-2.
Figura 4.12 Particolare di creazione di un nuovo progetto: inserimento e rinomina dei Layer.
Sperimentazione condotta sul caso studio (Bologna)
121
Tra le diverse funzioni di SEGMENTAZIONE implementate dal
software, è scelta la multiresolution; in particolare, per sfruttare
appieno l’informazione multispettrale, è assegnato un peso uguale ad
ognuna delle bande.
Viene stabilito il Parametro scala (Capitolo 2, La classificazione e
l’interpretazione) e gli ulteriori parametri di shape e compactness.
Nello specifico, il parametro scala indica un preciso valore di
eterogeneità tra gli object, mentre i valori di shape e compactness
impediscono che vengano creati oggetti con texture troppo differente.
La texture prende in considerazione l’aspetto della forma individuata
da bordi più o meno squadrati (shape) e il discorso della compattezza
(compactness).Come primo livello gerarchico di segmentazione, sono
stati impostati i valori:
La scelta è stata motivata dalla volontà di creare object di forma
abbastanza compatta, vicina alla forma generica delle coperture, e
squadrata.
Figura 4.13 Particolare di impostazione dei parametri utili alla segmentazione multiresolution.
Sperimentazione condotta sul caso studio (Bologna)
122
Figura 4.14 Risultato della prima fase di segmentazione multiresolution.
Una volta effettuata la segmentazione, l’immagine è suddivisa in
oggetti, ciascuno dei quali caratterizzato da proprietà (feature) di tipo
spettrale, geometrico e tessiturale che possono essere sfruttate in
fase di classificazione: il software permette di interrogare
singolarmente ogni object al fine di controllare il valore delle diverse
feature inoltre, permette di creare nuove feature, attraverso il
comando customize.
Ogni caratteristica può essere rappresentata su tutta la scena
attraverso la Feature View con una palette in toni di grigio o dal verde
al blu, settando un range di valori da visualizzare.
Durante la sperimentazione sono state create 3 nuove feature basate
su operazioni tra bande dell’immagine.
Figura 4.15 Vista della Feature View , con focus sulle feature create per l’individuazione di vegetazione, tetti rossi e tetti chiari.
Sperimentazione condotta sul caso studio (Bologna)
123
- La prima feature creata rappresenta l’indice spettrale NDVI
(Normalized Difference Vegetation Index), per esaltare la
presenza di vegetazione;
Figura 4.16 Vista della finestra di editing per le features.
- La seconda feature è stata creata per esaltare la presenza di
tetti caratterizzati da una copertura in tegole; tale feature è
stata definita “ROSSO SU ALTRI” , ed esalta la riflettenza nella
banda del rosso rispetto alle bande del VIS;
Sperimentazione condotta sul caso studio (Bologna)
124
Figura 4.17 Vista della finestra di editing per le features.
- Infine è stata creata la feature “BIANCO” al fine di identificare
la riflettanza di edifici con coperture bianche/grigie, in
calcestruzzo o lamiera, generalmente praticabili, tipiche di
palazzine, ospedali, istituti dell’area metropolitana.
Figura 4.18 Vista della finestra di editing per le features customizzate.
Sperimentazione condotta sul caso studio (Bologna)
125
Queste tre feature sono state interrogate su tutta l’area , attraverso
la feature view. Tale controllo ha permesso di definire specifiche
soglie sulle feature al fine di assegnare gli image object ad una classe
precisa.
Figura 4.19 Vista della caratteristica di NDVI su un’ area dell’ immagine e controllo, per il singolo object, del valore di NDVI.
In particolare, le classi tematiche sono state definite a priori,
all’interno della “Class Hierarchy” e sono le seguenti:
Figura 4.20 Finestra di Class Hierarchy.
- Verde urbano; zone occupate da vegetazione pubblica o
privata, indifferentemente di tipo prato, arbusti o alberi, colta o
incolta.
- Strade; rete viaria e parcheggi.
- Ombreggiature; zone di ombra causate da edifici o costruzioni
elevate. È utilizzata per lo più come classe di ”servizio”, per
contenere errori di commissione.
- Tetti rossi; coperture tipiche di ville, piccole palazzine o
murature del centro storico, realizzate in tegola rossa.
- Tetti bianchi; comprende tutte le coperture di grandi palazzi
tipici del secondo dopoguerra. Si tratta spesso di coperture
praticabili in calcestruzzo, ghiaino o lamiera.
Sperimentazione condotta sul caso studio (Bologna)
126
Successivamente alla prima fase di segmentazione, è stata effettuata
una prima fase di classificazione al fine di identificare il verde urbano
e gli edifici caratterizzati da copertura in tegole rosse e copertura
bianca/grigia.
In generale, la classificazione implementata con eCognition ha una
struttura “ad albero” e viene rappresentata nel process Tree
attraverso un impianto gerarchico composto da rami principali e figli
(child processes).
Nel caso specifico, la classificazione degli image object è svolta
implementando più volte il comando assign class fissando soglie
molto restrittive alle feature “NDVI” , “ROSSO SU ALTRI” e “BIANCO”.
Figura 4.21 Classificazione mediante la definizione di soglie per le features “NDVI”, “ROSSO SU ALTRI”, “BIANCO),
Sperimentazione condotta sul caso studio (Bologna)
127
I risultati della prima fase di classificazione sono riportati di seguito:
Figura 4.22 Feauture view relativa alla caratteristica ”NDVI” e classificazione del verde urbano attraverso l’NDVI.
Figura 4.23 Feauture view della caratteristica “ROSSO SU ALTRI” e classificazione dei tetti rossi attraverso la caratteristica ROSSO SU ALTRI.
Figura 4.24 Feauture view della caratteristica “BIANCO” e classificazione dei tetti bianchi attraverso la caratteristica BIANCO.
La struttura a level dell’ambiente di eCognition ha permesso di
realizzare una seconda segmentazione, caratterizzata da un
Parametro Scala minore del precedente, con l’obiettivo di
RAFFINARE la classificazione.
Sperimentazione condotta sul caso studio (Bologna)
128
A tale proposito, nel process tree è stato creato un secondo blocco di
funzioni, che partono con la seconda segmentazione dell’immagine e
con il trasferimento degli object già classificati, nel nuovo livello.
Figura 4.25 Vista del process tree: fase di RAFFINAMENTO.
Figura 4.26 Particolare della seconda segmentazione .
Sperimentazione condotta sul caso studio (Bologna)
129
La funzione implementata per questa operazione di trasferimento è
contenuta nel gruppo di feature denominato class related.
Esistono, infatti, feature che mettono in relazione object posti sullo
stesso level, oppure altre che coinvolgono objects su level differenti
(super-objects e sub-objects).
Nello specifico, per trasferire la classificazione effettuata dal livello
superiore a quello nuovo inferiore, è stata utilizzata una feature
relazionale di esistenza.
La segmentazione multiresolution crea livelli di segmentazione non
indipendenti. Ciò implica che è possibile utilizzare feature relazionali
anche fra object di livello differente.
In questo caso è stata utilizzata la feature relazionale di “Existence
of” che viene interrogata sulla presenza di una certa classe tematica,
al livello adiacente. In caso di esito positivo (questo algoritmo lavora
in logica booleana), la classificazione in questione viene copiata al
nuovo livello.
Sperimentazione condotta sul caso studio (Bologna)
130
Figura 4.27 a) rappresentazione della feature “Existence of super objects” per la classe tetti rossi . La logica booleana fornisce come risposte Sì o NO, che corrispondono, nella feature view, nei colori bianco e nero. b) trasporto della classe tetti rossi, al livello inferiore.
Figura 4.28 a) rappresentazione della feature “Existence of super objects” per la classe tetti bianchi b) trasporto della classe tetti bianchi, al livello inferiore.
Figura 4.29 a) rappresentazione della feature “Existence of super objects” per la classe verde urbano. b) trasporto della classe verde urbano, al livello inferiore.
Sperimentazione condotta sul caso studio (Bologna)
131
All’interno del livello 2 vengono assegnate le classi di strade e
ombreggiature.
Essendo l’obiettivo della sperimentazione, l’estrazione di edifici, le
classi tematiche strade e ombreggiature possono essere viste come
“classi di servizio”, poiché la loro esclusione dagli object rimasti
unclassified, preclude eventuali errori di commissione. La risposta
spettrale di queste due nuove categorie tematiche, infatti, si avvicina
molto a quella delle coperture delle palazzine; per quanto riguarda la
regione del VIS, entrambe sono di colore grigio chiaro (o scuro) a
seconda dell’illuminazione.
Per quanto riguarda invece le restanti regioni (NEAR IR 1 e 2) esse
non sono interessate da comportamenti degni di nota.
Questi aspetti indurrebbero in errore il programma che, durante le
operazioni di raffinamento della categoria tetti bianchi, è portato ad
includerle.
Per l’individuazione delle ombreggiature, è stata utilizzata la feature
Brightness che, appunto, individua gli object maggiormente illuminati.
Questo, di fatto esclude a priori le zone d’ombra.
È stata quindi fissata una soglia, al di sotto della quale tutti gli object
unclassified vengono assegnati alla categoria ombreggiature.
Figura 4.30 a) Feature view della caratteristica di Brightness. b) classificazione degli object con Brightness minore della soglia, come ombreggiature.
Sperimentazione condotta sul caso studio (Bologna)
132
Per l’individuazione degli object appartenenti alla categoria strade, si
è fatto riferimento ad aspetti geometrici mediante l’impiego del blocco
Geometry, nella feature view.
Nello specifico sono stati classificati come strade quegli oggetti con
lunghezza e rapporto lunghezza/larghezza maggiori di una certa
soglia attraverso le funzioni di Length/Width e Length.
⁄
Figura 4.31 a)b) la combinazione delle features di lenght e lenght/width fornisce la classe strade. c) classificazione degli object strade.
Gli object rimasti non classificati sono stati studiati con le stesse
customized feature utilizzate nella prima segmentazione, ovvero
NDVI, ROSSO SU ALTRI e BIANCO; in generale, sono state applicate
soglie più alte per l’assegnazione rispettivamente alle classi di verde
urbano, tetti rossi e tetti bianchi.
Sperimentazione condotta sul caso studio (Bologna)
133
La seconda segmentazione, è stata eseguita con Parametro Scala più
piccolo. Gli object ottenuti possiedono, quindi, caratteristiche
spettrali, tessiturali e geometriche più omogenee ; è stato possibile,
quindi, iniziare la fase di RAFFINAMENTO, durante la quale sono
state modificate le soglie per le feature ROSSO SU ALTRI e BIANCO,
precedentemente utilizzate per la classificazione di tetti rossi e tetti
bianchi.
Figura 4.32 Fase di raffinamento delle classi verde urbano, tetti rossi e tetti bianchi.
La fase di RAFFINAMENTO termina con la creazione di un ulteriore
level e il merge degli object classificati come verde urbano e tetti
rossi.
Per i tetti rossi è utilizzata un’altra feature relazionale (“Relative
border to…”) operante tra object del medesimo livello.
In particolare il merge della classe tematica, è stato effettuato solo
fra quegli object con più di 29 pixel di contorno in comune i quali,
quindi, è plausibile che appartengano alla stessa copertura.
Sperimentazione condotta sul caso studio (Bologna)
134
La classificazione termina con la creazione di un ultimo level,
all’interno del quale sono state unite le classi tetti rossi e tetti bianchi,
sotto un’unica classe, tetti.
Figura 4.33 Creazione dell’ultimo Level e merge delle classi tetti rossi e tetti bianchi, sotto un’unica classe: tetti.
Il prodotto finale ottenuta dalla procedura di classificazione sopra
descritta è riportato in figura:
Figura 4.34 Vista della classificazione ultimata.
Sperimentazione condotta sul caso studio (Bologna)
135
Per le successive verifiche di accuratezza, la classe tetti, è stata
esportata sotto forma di shapefile (.shp).
Figura 4.35 Esportazione di risultati in formato shapefile o raster
Sperimentazione condotta sul caso studio (Bologna)
136
4.2.2 Estrazione basata sul dato multispettrale e sul DSM
La seconda procedura di classificazione proposta ha previsto
l’identificazione degli edifici mediante l’elaborazione dell’immagine
WorldView-2 congiuntamente all’impiego del DSM e del DTM dell’area
di studio.
È stato creato un New Project in cui, come layer, compaiono le 8
bande di acquisizione del sensore WV-2, e i due raster contenenti il
dato di quota, ossia il DTM e il DSM.
Figura 4.36 Particolare di creazione di un nuovo progetto: inserimento e rinomina dei Layer.
Sperimentazione condotta sul caso studio (Bologna)
137
Come nel caso precedente, la classificazione è stata svolta in più fasi;
Il processo di classificazione è partito con la creazione di un primo
livello di object, su cui è stata effettuata una prima classificazione,
volta all’individuazione di edifici sfruttando il dato di quota.
Figura 4.37 Vista del Rule set implementato nella classificazione con dato multispettrale e DEM.
La creazione degli image object è stata effettuata, anche in questo
caso, attraverso l’operazione di SEGMENTAZIONE multiresolution;
tuttavia si è voluto dare maggiore importanza al dato di quota, e
quindi al layer del DSM; questo aspetto è giustificato dal fatto che,
con questo approccio, si è voluto estrarre gli edifici sfruttando
l’informazione di elevazione, riportata dal DSM.
La risoluzione del DSM a 2m, tuttavia, può indurre in errore durante
la segmentazione; il dato di quota, associato a ciascun pixel, è
uniforme su tutta l’area del pixel e questo crea degli evidenti errori di
segmentazione lungo gli spigoli degli edifici.
È stato, perciò, applicato un filtro di smoothing sul layer DSM,
ottenendo come prodotto un ulteriore layer chiamato DSM_smoothed.
Il principio di funzionamento si basa sul fatto che, nel DSM, ad ogni
pixel è associato un dato di quota uniforme. Successivamente
all’applicazione del filtro, all’interno di ogni pixel si hanno zone a
quota diversa ed quindi è possibile individuare una pendenza.
I diversi valori di quota all’interno di ciascun pixel sono calcolati sulla
base dei valori di quota posseduti dai pixel adiacenti.
Sperimentazione condotta sul caso studio (Bologna)
138
Figura 4.38 Principio di funzionamento del filtro di smoothing. ( eCognition 8.8: Guided Tour – Level 3)
Di seguito è rappresentato il risultato dell’applicazione del filtro di
smoothing.
Figura 4.39 View del DSM (a sx) e del DSM_smoothed (a dx). I pixel giacenti sugli spigoli degli edifici non hanno differenze nette nei valori di quota, bensì variabili.
Sperimentazione condotta sul caso studio (Bologna)
139
La prima segmentazione è stata quindi effettuata sfruttando il layer
creato attraverso il filtro di smoothing con l’obiettivo di ottenere degli
image object simili alle sagome degli edifici discriminandoli in base
all’informazione di quota; il Parametro di Scala è stato settato su un
valore pari a 15, mentre i valori di shape e compactness sono stati
entrambi impostati a 0,5 con l’obiettivo di utilizzare valori medi e non
condizionare così la segmentazione basata sul layer filtrato.
Figura 4.40 Particolare delle impostazioni dei valori si segmentazione.
Figura 4.41 Particolare della prima segmentazione.
Sperimentazione condotta sul caso studio (Bologna)
140
La prima fase di classificazione ha previsto la creazione di due nuove
feature specifiche per lo studio del dato di quota:
- standard deviation del valore del layer DSM_smoothed
Figura 4.42 Particolare della definizione della feature DSM_smooth standard deviation, nella feature view .
- differenza tra DSM e DTM :
Figura 4.43 Particolare della finestra di creazione di customized features .
Sperimentazione condotta sul caso studio (Bologna)
141
La prima caratteristica è stata creata per l’individuazione delle zone in
cui si ha un notevole cambio di quota. In particolare, gli objects
composti da pixel a grande variabilità del valore di quota sono
raffigurati con un digital number alto nei livelli di grigio. Una bassa
variabilità della quota tra i pixel costituenti un object, è raffigurata
attraverso un digital number basso.
La seconda caratteristica vuole invece effettuare una prima
classificazione di tutti quegli object con altezza netta (cioè differenza
tra DSM e DTM ) maggiore di una certa soglia. Nelle figure di seguito,
è rappresentato, con una palette a livelli di grigio, il valore di
differenza di quote DSM-DTM, propria di ogni object. A valori di
differenza di quota maggiore, sono associati digital number maggiori,
viceversa a valori di differenza di quota minori, e quindi edifici più
bassi, sono associati digital number inferiori.
È importante definire che la scelta di questa soglia adatta è stata
sviluppata osservando il prodotto della collaborazione tra queste due
feature.
Figura 4.44 Particolare del lavoro sinergico delle due customized features (a sx, DSM-DTM , a dx standard deviation DSM_smoothed)
Sperimentazione condotta sul caso studio (Bologna)
142
Una prima identificazione degli edifici è stata effettuata mediante la
definizione di due soglie relativamente alle due caratteristiche
sopradescritte:
e subito dopo:
Sono stati lanciati due comandi successivi di assign class con lo scopo
di individuare due tipologie di edifici: quelli più alti con, sugli spigoli,
objects con variabilità di quota maggiore e quelli più bassi, con
objects sugli spigoli interessati da minore variabilità di quota.
Figura 4.45 finestre di editing per il comando Assign class. Si vuole mettere in evidenza la possibilità dii inserire due condition separate.
I risultati della prima fase di classificazione sono i seguenti:
Figura 4.46 Particolare della prima fase di classificazione edifici.
Sperimentazione condotta sul caso studio (Bologna)
143
La seconda fase del processo è di RAFFINAMENTO.
In questa fase è stata implementata una segmentazione delle zone
occupate da unclassified object, condotta con Parametro Scala molto
più fine:
Figura 4.47 Vista del process tree, con focus sulla fase di REFINEMENT.
Figura 4.48 Particolare della seconda segmentazione.
Sperimentazione condotta sul caso studio (Bologna)
144
Durante il processo di RAFFINAMENTO è stata utilizzata la
customized feature “NDVI”.
In particolare tutti gli objects caratterizzati da una valori di NDVI
maggiore di una soglia sono stati classificati come verde urbano.
Figura 4.49 Monitoraggio dei valori di NDVI assunti dagli object.
La classificazione del verde urbano è svolta prima del raffinamento
della classificazione dei tetti; si sono voluti, infatti, eliminare
classificandoli gli object caratterizzati da una certa elevazione, ma
rappresentanti alberi o vegetazione di elevata statura.
In questi termini, il successivo raffinamento della classificazione,
basato sull’informazione della feature DSM-DTM, non rischia di
includere object alti, ma di tipo vegetazionale.
A questo punto la soglia della feature DSM-DTM, attraverso cui
effettuare una nuova assegnazione, viene modificata al fine di
includere più object, senza rischiare di classificare erroneamente
alberi di altezza paragonabile ad un edificio.
Lo strumento di NDVI è , a questo punto, utilizzato anche per epurare
la classificazione tetti effettuata nel primo livello e copiata al livello 2,
dagli objects di verde urbano classificati erroneamente.
Sperimentazione condotta sul caso studio (Bologna)
145
Figura 4.50 Fase di REFINEMENT per la classificazione dei tetti.
Mediante una serie di processi (definiti “cleening up processes”) la
classe tetti è stata depurata da quegli image object di piccole
dimensioni ed isolati, spesso frutto di commissione durante le fasi di
scelta delle soglie.
Infine è stata implementata la funzione di merge su tutti gli object
tetti.
Figura 4.51 Particolare del confronto tra l’immagine di partenza e la classificazione finale.
Sperimentazione condotta sul caso studio (Bologna)
146
L’individuazione di edifici nella zona S-SE dell’area studiata,
interessata dall’inizio della zona collinare di Bologna, non è risultata
soddisfacente.
La segmentazione basata sul layer DSM_smoothed ha mostrato
grandi difficoltà, in questa zona, nell’estrazione di image object
attraverso il dato di elevazione, a causa della presenza di vegetazione
con altezza paragonabile agli edifici .
Si è deciso allora di inserire un blocco di operazioni con lo scopo di
individuare gli edifici attraverso il dato di riflettanza spettrale.
Figura 4.52 Particolare del confronto tra il DSM e la feature ROSSO SU ALTRI
Figura 4.53 Vista del rule set definitivo.
Sperimentazione condotta sul caso studio (Bologna)
147
A questo scopo, sono stati trasferiti gli object rimasti unclassified ad
un nuovo livello.
Sono stati uniti utilizzando la funzione di merge, e successivamente
segmentati attraverso la multiresolution segmentation, basata sul
solo dato multispettrale.
Figura 4.54 Particolare delle impostazioni di segmentazione basate sul dato mutlispettrale.
Sugli objects così ottenuti è stata implementata la funzione assign
class, sfruttando una doppia condizione; in primo luogo, è stata
impostata una soglia di “rosso su altri” sufficientemente alta, in modo
da individuare esclusivamente gli edifici con copertura in coppi
classica, situati in prevalenza in zona collinare, dove difficilmente
sorgono palazzi di grandi dimensioni e caratterizzati da coperture a
falda piana e in cls.
È stata successivamente introdotta, come seconda condition, una
soglia minima per la feature “DSM-DTM”, con lo scopo di evitare di
includere, erroneamente, elementi come i campi da tennis in terra
rossa o il tracciato della pista di atletica in tartan rosso.
Sperimentazione condotta sul caso studio (Bologna)
148
Figura 4.55 Particolare delle impostazione delle soglie nella funzione di assign class.
Gli object classificati come tetti rossi hanno successivamente subìto
un’operazione di merge.
La mappa degli edifici finale, così classificata, è poi stata esportata in
formato shapefile (.shp) per valutarne l’accuratezza.
Sperimentazione condotta sul caso studio (Bologna)
149
4.3 Validazione
Per valutare l’accuratezza della classificazione object-oriented sopra
descritta, è stata condotta una procedura di validazione.
In particolare, la validazione della mappa dei tetti è stata effettuata
confrontando, in ambiente GIS (QuantumGIS), il vettoriale della
classificazione dei tetti e la CTC, assunta come verità a terra: per
ogni poligono presente nella Carta Tematica Comunale è stata
calcolata l’area classificata correttamente come tetti.
Quella che è stata condotta è quindi una validazione, di tipo
geometrico, su ogni oggetto identificabile a terra, e che quindi non
interessa solo un campione di test site (ground truth), estratti dal
riferimento .
Come indicazione della bontà della classificazione, vengono calcolati i
seguenti parametri :
- overall accuracy,
- user accuracy,
- producer accuracy;
Si ricorda che entrambi i file ottenuti dalla classificazione dei tetti
sono georeferenziati nel sistema di riferimento UTM-WGS84 32N per
cui risultano perfettamente co-registrati con la CTC .
Questo ha permesso di implementare la funzione, presente in QGIS,
di overlay, attraverso la quale sono stati sovrapposti i vettoriali della
classificazione dei tetti, ottenuta dall’immagine multispettrale, in un
caso, e dall’immagine multispettrale congiuntamente al DEM, nel
secondo caso, con la CTC ritagliata sull’area di studio.
Sperimentazione condotta sul caso studio (Bologna)
150
Figura 4.56 Particolari di overlay , in Qgis, tra la classificazione tetti e la ctc . a) classificazione prodotta attraverso il dato multispettrale. b) class. prodotta attraverso il dato multisp.e e il DEM.
Per quantificare l’effettiva porzione di area classificata correttamente
nel vettoriale tetti , è stata sfruttata l’operazione di intersezione,
individuabile tra gli strumenti di GeoProcessing, la quale opera sui
due vettoriali inseriti nel workspace di Qgis.
Figura 4.57 Vista del gruppo di funzioni di Geoprocessing per i vettoriali nel workspace di Qgis.
Sperimentazione condotta sul caso studio (Bologna)
151
Il risultato è un nuovo vettoriale contenente solo le porzioni di
poligoni classificati correttamente.
Figura 4.58 Particolari dell’intersezione eseguita, in Qgis, tra la classificazione tetti e la ctc . a) classificazione prodotta attraverso il dato multispettrale. b) class. prodotta attraverso il dato multisp.e e il DEM.
Sperimentazione condotta sul caso studio (Bologna)
152
A ciascun vettoriale è associato un file attributi (.dbf) attraverso il
quale è stato possibile calcolare l’area totale degli oggetti presenti
nell’intersezione; è stata valutata quindi anche numericamente l’area
di classificazione andata a buon fine.
Figura 4.59 Vista della funzione di calcolo aree all’interno della tabella attributi, associata ai vettoriali.
È stato calcolato, grazie a questo dato, il parametro di overall
accuracy, come rapporto tra l’area classificata correttamente e l’area
totale dei poligoni presenti sulla CTC.
Per il calcolo degli errori di commissione ed omissione e, quindi, la
valutazione dei parametri di User accuracy e Producer accuracy, sono
stati sfruttati i risultati dell’operazione di differenza areale tra
classificazione tetti e CTC, e viceversa.
In particolare, è stata utilizzata la funzione, presente anch’essa fra i
comandi di GeoProcessing di Qgis, di Differenza tra vettoriali.
Sperimentazione condotta sul caso studio (Bologna)
153
Sono state eseguite, nella fattispecie, le operazioni di Differenza tra
Classificazione tetti e CTC e di Differenza tra CTC e Classificazione
tetti
Figura 4.60 Vista delle impostazioni per la funzione di Differenza fra vettoriali.
Sono stati ottenuti, come risultati, i seguenti file vettoriali:
Figura 4.61 Particolari della Differenza eseguita tra la classificazione tetti e la ctc . a) classificazione prodotta attraverso il dato multispettrale. b) class. prodotta attraverso il dato multisp.e e il DEM.
Sperimentazione condotta sul caso studio (Bologna)
154
Figura 4.62 Particolari della Differenza eseguita tra la ctc e la classificazione tetti. a) classificazione prodotta attraverso il dato multispettrale. b) class. prodotta attraverso il dato multisp.e e il DEM.
L’operazione di calcolo delle aree, attraverso il file attributi (.dbf) è
stata eseguita anche per i vettoriali delle Differenze, ottenendo così i
valori di area classificata erroneamente (nel caso di Differenza tra
Class.tetti e CTC) oppure omessa (nel caso di Differenza tra CTC e
Class.tetti).
La valutazione dell’area dei poligoni classificata erroneamente e
omessa è servita al calcolo degli errori di Commissione (CE) ed
Omissione (OE) come rapporti tra aree;
in particolare l’errore di commissione deriva dal rapporto tra l’area dei
poligoni classificata erroneamente e l’area totale della Class. tetti,
mentre l’errore di omissione deriva dal rapporto dell’area omessa e
l’area totale della CTC.
Da questi valori si ottengono i parametri di User accuracy e Producer
accuracy.
Sperimentazione condotta sul caso studio (Bologna)
155
[ ]
[ ]
Di seguito sono i riportati i valori dei parametri calcolati, per ciascuna
delle classificazioni sviluppate:
m2 Overall accuracy
AREA totale CLASS. tetti
1.429.539,89
60,8% AREA totale CTC 1.391.713,92
INTERSEZIONE CLASS. Tetti - CTC
846156,740
m2 Err. di Commissione (CE) User accuracy (AU)
totale area DIFFERENZA
CLASS. tetti - CTC 602.290,85 42,1% 57,9%
m2 Err. di Omissione (OE) Producer accuracy (PA)
totale area DIFFERENZA
CTC - CLASS. tetti 530.416,87 38,1% 61,9%
Tab 4.1 Valori di accuracy e errori di classificazione per la classificazione tetti sviluppata attraverso il dato multispettrale
m2 Overall accuracy
AREA totale CLASS. tetti
1.653.273,94
85,21%
AREA totale CTC 1.391.713,92
INTERSEZIONE
CLASS. Tetti - CTC 1.185.874,29
m2 Err. di Commissione (CE) User accuracy (AU)
totale area DIFFERENZA
CLASS. tetti - CTC 553.604,90 33,48% 66,52%
m2 Err. di Omissione (OE) Producer accuracy (PA)
totale area DIFFERENZA
CTC - CLASS. tetti 173.315,68 12,45% 87,55%
Tab 4.1 Valori di accuracy e errori di classificazione per la classificazione tetti sviluppata attraverso il dato multispettrale e il DEM.
Sperimentazione condotta sul caso studio (Bologna)
156
Sperimentazione condotta sul caso studio (Bologna)
157
Sperimentazione condotta sul caso studio (Bologna)
158
4.4 Considerazioni sulle problematiche riscontrate
Grazie alla procedura di validazione sopra descritta è possibile
effettuare alcune considerazione relativamente agli errori che
affliggono la classificazione e alle difficoltà incontrate
nell’implementazione della stessa.
Di seguito vengono quindi presentate, per entrambe le strategie di
estrazione portate a termine, le situazioni più ricorrenti di errore o
mancata classificazione.
A tale scopo viene confrontata la classe tematica tetti, è stata
esportata, attraverso il software QGIS in formato Keyhole Markup
Language (.kml), ed è stata sovrapposta ad immagini ad alta
risoluzione dell’area di studio, di tipo open source.
4.4.1 Estrazione basata sul solo dato multispettrale
L’estrazione della classe degli edifici dall’ immagine multispettrale è
stata eseguita attraverso l’esame delle caratteristiche di riflettanza
dei materiali da costruzione nelle 8 bande acquisite dal sensore.
Questo esame ha prodotto, tuttavia, risultati simili anche per diversi
materiali impiegati nell’ambito urbano.
In particolare, alcuni materiali come la sabbia presente sul suolo
stradale, o la massicciata in pietra presente sui binari ferroviari, che
hanno presentato risposta spettrale simile a quella ritrovata per la
categoria tetti bianchi.
La mancanza di un analisi accurata , attraverso software appositi,
della firma spettrale di materiali da costruzione attraverso cui
discriminare in maniera efficace il suolo dall’edificio, ha prodotto
erronee inclusioni, di cui, di seguito, sono riportati solo alcuni esempi.
Sperimentazione condotta sul caso studio (Bologna)
159
Figura 4.63a Particolare della sovrapposizione della classificazione tetti in formato .kml e le immagine open source ad altissima risoluzione: erronea classificazione di sabbia bianca come tetti bianchi
Figura 4.63b Particolare dell’erronea classificazione di campi da tennis in terra come tetti bianchi.
Figura 4.63c Particolare dell’erronea classificazione della massicciata fra i binari come tetti bianchi.
Sperimentazione condotta sul caso studio (Bologna)
160
Un chiaro esempio di commissione è quello di erronea inclusione di
pavimentazioni d’esterno in cotto, tra la categoria tetti rossi.
La loro discriminazione sulla base della sola riflettanza, è risultata
difficile a causa della composizione chimica affine.
Figura 4.64 Particolare della sovrapposizione della classificazione tetti in formato .kml e le immagine open source ad altissima risoluzione: erronea classificazione di una pavimentazione da esterno in cotto, come tetti rossi.
Gli esempi finora elencati giustificano, in parte, l’errore di
commissione (CE) calcolato precedentemente (paragrafo 4.3).
Esiste, tuttavia, un’altra consistente fonte di errore di commissione,
all’interno della classificazione basata sul solo dato multispettrale ed è
particolarmente visibile nel caso di edifici alti.
Le riprese del sensore WorldView-2 eseguite off-nadir e,
successivamente, ortorettificate, causano un effetto prospettico in
corrispondenza degli edifici.
Questo effetto è dovuto al cono d’ombra creato dalla vista off nadir di
un edificio di notevole altezza e comporta il posizionamento errato del
piede dell’edificio, nel punto a terra in cui riprende la visuale del
sensore.
Sperimentazione condotta sul caso studio (Bologna)
161
Il risultato, visibile sull’ortofoto, è un impronta dell’edificio tanto più
allargata, quanto maggiore è stato il cono d’ombra.
L’individuazione di edifici che sfrutta il solo dato multispettrale
rappresentato sull’ortofoto comporta, quindi, l’estrazione di sagome
più estese di quanto non lo siano in realtà.
Figura 4.65 (a)Particolare
esempio dell’effetto prospettico; sono state
sovrapposte l’immagine WV-2
(sfumata) e le immagini open source ad alta
risoluzione (nitida); (b)errori nella
segmentazione e quindi nella
classificazione basate sul solo dato
multispettrale, causati dall’effetto
prospettico.
Sperimentazione condotta sul caso studio (Bologna)
162
Figura 4.66a esempio di errore nella segmentazione e quindi nella classificazione basate sul solo dato multispettrale, causati dall’effetto ghost.
Figura 4.66b esempio di errore nella segmentazione e quindi nella classificazione basate sul solo dato multispettrale, causati dall’effetto ghost.
Figura 4.66c esempio di errore nella segmentazione e quindi nella classificazione basate sul solo dato multispettrale, causati dall’effetto ghost.
Sperimentazione condotta sul caso studio (Bologna)
163
Vengono infine elencati degli esempi che giustificano, in parte,
l’errore di omissione (OE) calcolato nel paragrafo precedente
(paragrafo 4.3).
Si è verificata la mancata classificazione di coperture calpestabili,
realizzate in cls o in laterizio scuro. La causa è da ricercarsi nella
volontà di non includere, erroneamente, aree di manto stradale
realizzate con materiali a riflettanza simile.
Figura 4.67a Esempio mancata classificazione polo di Ingegneria;
Figura 4.67b Esempio mancata classificazione Ipercoop via A.Costa;
Figura 4.67c Esempio mancata classificazione Chiesa di Borgo SanPietro;
Sperimentazione condotta sul caso studio (Bologna)
164
4.4.2 Estrazione basata sul dato multispettrale e sul DSM
Dalle analisi di accuratezza descritte nel paragrafo precedente, si
evince un notevole incremento delle prestazioni della classificazione,
grazie all’introduzione dei due layer aggiuntivi DTM e DSM nel
progetto eCognition.
Il valore di accuratezza raggiunto (85,21%) è da considerarsi molto
interessante; considerando anche che sussistono alcuni fattori, che
verranno descritti successivamente, che possono avere penalizzato la
procedura seguita.
In primo luogo, l’immagine WorldView-2 utilizzata è del 2011 mentre
il dato di quota relativo al DSM, impiegato nella segmentazione, è
aggiornato al 2009.
È quindi possibile che nel corso dei due anni di distanza, siano state
realizzate costruzioni che non compaiono nel DSM ma che la CTC
(aggiornata al 2012) già annovera.
Di seguito è riportato l’esempio di una copertura, individuata nei
pressi della stazione ferroviaria, realizzata dopo il 2011 che, quindi,
non appare nel DSM bensì è raffigurata nella CTC.
Figura 4.68 (a sx)Particolare del confronto del dato multispettrale con il dato DSM, ottenuto utilizzando i dati raccolti da volo Lidar del 2009 ; (a dx) ctc aggiornata al 2012;
Sperimentazione condotta sul caso studio (Bologna)
165
È stato riscontrato una forte calo di prestazione della strategia di
classificazione, in prossimità delle aree collinari della città.
La segmentazione basata esclusivamente sul DSM non ha permesso
di individuare gli edifici immersi nella vegetazione ad alto fusto, che
tipicamente è presente sui colli.
Le altezze paragonabili della vegetazione e dei tetti hanno infatti
impedito alla funzione di segmentazione di individuare una sufficiente
variabilità del dato di quota mediante cui isolare gli edifici.
L’introduzione, in calce al processo, di un blocco di funzioni che
sfruttano il solo dato multispettrale ha in parte risolto questo
problema.
Di seguito è riportato un confronto della classificazione effettuata, con
le immagini ad alta risoluzione presenti sul portale Google Earth.
In blu sono rappresentati gli edifici estratti prima di introdurre il
blocco di azioni sopracitate; in rosso è rappresentato il miglioramento
della classificazione, grazie all’introduzione delle operazioni di cui
sopra, mentre le frecce gialle indicano gli elementi rimasti, tuttavia,
inclassificati. Infine, in rosa, è raffigurata, a titolo di confronto, la
CTC.
Figura 4.69 Vista del confronto tra classificazione ed immagini ad alta risoluzione (Google Earth).
Sperimentazione condotta sul caso studio (Bologna)
166
Figura 4.70 Vista del confronto tra la CTC ed immagini ad alta risoluzione open source.
Sperimentazione condotta sul caso studio (Bologna)
167
Sperimentazione condotta sul caso studio (Bologna)
168
Conclusioni e osservazioni
La classificazione automatica di immagini telerilevate si prefigge
l’obiettivo di sostituire l’interpretazione visiva dell’operatore allo
scopo di ridurre i tempi di elaborazione manuale e gli inconvenienti di
una classificazione soggettiva e non ripetibile.
Nello specifico, le tecniche object-based di recente sviluppo
forniscono un valido strumento per lo sviluppo di tali procedure
automatiche, soprattutto utilizzando le immagini ad alta e altissima
risoluzione oggi disponibili. In questa direzione si è orientato lo studio
del presente elaborato di tesi; l’esperienza è stata condotta
utilizzando un caso di studio per il quale si dispone di un’informazione
di riferimento ai fini della validazione della procedura. In tal modo è
possibile valutare che il processo messo a punto possa essere
applicato con sufficiente grado di affidabilità anche in situazioni in cui
non si dispone di una base di cartografia numerica in ambiente GIS.
La sperimentazione è stata condotta con l’obiettivo di implementare
una procedura di classificazione per l’estrazione automatica degli
edifici da immagini satellitari ad alta risoluzione spaziale in un ambito
urbano. Il caso di studio è stato riferito ad una porzione dell’area
urbana di Bologna, impiegando un’immagine multispettrale del 2011
acquisita dal sensore WorldView-2 caratterizzata da una risoluzione
spaziale di 2 m nelle 8 bande multispettrali e di 0,50 m nel
Conclusioni e osservazioni
170
pancromatico; sono stati inoltre utilizzati il DSM e il DTM dell’area
indagata.
Nel corso della tesi, sfruttando le grandissime potenzialità del
software utilizzato (Trimble eCognition) e l’efficacia dell’interfaccia
con un ambiente GIS, sono state messe a punto strategie specifiche
per la soluzione di singoli problemi, spesso con raffinamenti
successivi basati sulle analisi puntuali dei risultati via via ottenuti. Si
è inoltre posta attenzione alla fase di validazione a posteriori dei
risultati, al fine di verificare l’effettiva qualità del processo su aree
estese.
Nella prima fase della sperimentazione è stata sviluppata una
procedura di classificazione object-based per l’estrazione degli edifici
dal solo dato multispettrale. Nello specifico, per la mappa prodotta è
stata ottenuta un’accuratezza del 60%. Tra le cause di una discreta
accuratezza, al di là dei deficit nel processo di ortorettifica delle
immagini acquisite off nadir, è stata riscontrata la difficile
discriminazione degli edifici rispetto ad altre infrastrutture urbane, nel
caso in cui la realizzazione fosse stata eseguita mediante il medesimo
materiale o attraverso materiali con caratteristiche chimico-fisiche, e
quindi riflettanza, simili.
È stata successivamente introdotta nella procedura di classificazione
l'informazione altimetrica, integrando il dato multispettrale con il DSM
ottenuto da un volo Lidar del 2009; questo ha permesso di
intraprendere una nuova strategia di classificazione che ha portato
l’overall accuracy all’ 85%. L’incremento si è rivelato notevole, con
valori di accuratezza elevati, pur non potendo evidentemente
raggiungere un successo pieno.
Potrebbe essere interessante effettuare, qualora si rendessero
disponibili molti casi di studio come quello trattato, una valutazione
dei benefici che si ottengono con questi nuovi dati in rapporto ai
maggiori costi che necessariamente comportano; non è
evidentemente una valutazione semplice, non essendo facile
generalizzare il risultato di studi che si compiono su ambienti urbani,
che per loro natura si presentano estremamente complessi e
diversificati nelle diverse aree geografiche.
D’altra parte, il continuo sviluppo di risoluzione spettrale, geometrica
e radiometrica dei sensori, da un lato aiuta la convergenza del
processo di estrazione, ma, dall’altro, fa sì che la ricerca di un grado
Conclusioni e osservazioni
171
di dettaglio maggiore, suggerito dai migliori prodotti dei sensori,
determini classificazioni comunque affette da errore.
D’altronde, la potenza di un processo di classificazione automatico
risiede nella possibilità non solo di essere esteso a porzioni sempre
maggiori dell’area di studio su cui è stato messo a punto, ma anche di
bene adattarsi a zone (comunque in un contesto urbano) diverse e
distanti tra loro, talvolta modificando opportunamente le soglie di
assegnazione e altrove agendo minimamente sulle regole.
Un’efficace procedura di classificazione automatica degli edifici
consente la ripetibilità della classificazione sulla medesima area di
immagini acquisite in periodi temporali diversi, supportando analisi
statistiche dei cambiamenti intercorsi su grandi moli di dati (es.
mappatura dell’urban sprawl) o l’individuazione di variazione puntuali
(ad es. nel controllo degli abusi edilizi); al tempo stesso, può essere
un dato utile anche nella redazione di previsioni e trend per il futuro
per valutazioni di carattere urbanistico.
La possibilità offerta dai software moderni di integrare dati
geospaziali digitali di tipo e formato diverso consente di svolgere
attività come l’aggiornamento periodico di banche dati esistenti o
indagini che richiedono l’uso congiunto di categorie diverse di dati;
tra gli esempi si possono citare l’identificazione di coperture
particolari (es. amianto) o mappature in campo energetico che si
avvalgono del dato termico. Il prodotto di una classificazione, quale
può essere la mappa degli edifici di una vasta area urbana, può
essere il punto di partenza di numerose attività nel campo della
protezione e pianificazione del territorio, come evidenziato nei
numerosi esempi descritti nella tesi.
Si ringrazia l’Unità SIT del Comune di Bologna che ha messo a
disposizione i dati altimetrici e di cartografia numerica.
Conclusioni e osservazioni
172
clxxiii
Bibliografia
ALBIZUA L., DONEZAR U., IBANEZ J.C., 2011, “Monitoring urban
development consolidation for regional management”, AIT
Associazione Italiana di Telerilevamento
ARMANO S., DE CECCO A., BOESSO F., DEL RE R., 2005,
“Telerilevamento e Urbanistica”, QR3
BAATZ M., SHÄPE A., 2000, “Multiresolution Segmentation: an
optimization approach for high quality multi-scale image
segmentation”, Angewandte Geographische Informationsverarbeitung
XII, Wichmann, Heidelberg, pp. 12-23
BITELLI G., CAMASSI R., GUSELLA L., MOGNOL A., 2004, “Image
change detection on urban area: the earthquake case”, ISPRS Journal
of Photogrammetry & Remote Sensing
BONORA N. ET AL., 2008, “Rilevazione delle aree verdi nelle città
italiane tramite immagini ad alta risoluzione”, Rivista italiana di
Telerilevamento, 40 (3), pp.17-25
BRIGANTE R., “Metodologie automatiche nell’elaborazione di
immagini satellitari stereoscopiche ad alta risoluzione per applicazioni
ingegneristiche”, Università di Perugia – Dipartimento di Ingegneria
Civile e Ambientale (DICA)
clxxiv
BRIVIO P.A. , LECHI G., ZILIOLI E., “Principi e metodi del
telerilevamento”, CittàStudi Edizioni, 2006
CHIRICI G., CORONA P., TRAVAGLINI D., 2003, “Sperimentazione di
tecniche di classificazione object-oriented di immagini quickbird a fini
forestali” , L’Italia Forestale e Montana, 4, pp. 231-250
CONGALTON R. G., 1991, “A Review of Assessing the Accuracy of
Classifications of Remotely Sensed Data”, Remote sensing
Environment, 37, pp.35-46
DARWISH A., LEUKERT K., REINHARDT W., 2003, “Image
Segmentation for the Purpose Of Object-Based Classification”,
Geoscience and Remote Sensing Symposium, IGARSS '03.
Proceedings, IEEE International, vol.3
DESSENA M.A., MELIS M.T., “Telerilevamento applicato”, Mako
Edizioni, 2006
GOMARASCA M.A. , “Elementi di geomatica”, AIT Associazione
Italiana di Telerilevamento, 2004
HAALA N., BRENNER C., 1999, “Extraction of buildings and trees in
urban environments”, ISPRS Journal of Photogrammetry & Remote
Sensing, 54 , pp. 130–137
HAVERKAMP D., PH.D., 2004, “Automatic building extraction from
Ikonos imaginery”, Proceedings of ASPRS 2004 Conference, Denver,
Colorado
KOC SAN D., TURKER M., 2010, “Building extraction from high
resolution satellite images using Hough transform”, International
Archives of the Photogrammetry, Remote Sensing and Spatial
Information Science, 38 (8), Kyoto Japan
KRAUS K. , “Photogrammetry”, tr.it. DEQUAL S.,
“Fotogrammetria / Teoria e applicazioni”, Levrotto & Bella Ed., 1998
LILLESAND T. M., KIEFER R. W., 1994, “Remote Sensing and Image
Interpretation”, Wiley
MATIKAINEN L., KAARTINEN H., HYYPPÄ J., 2007, “Classification tree
based building detection from laser scanner and aerial image data”,
ISPRS Workshop on Laser Scanning 2007 and SilviLaser 2007, Espoo,
September, Finland
clxxv
MILIARESIS G., KOKKAS N., 2006, “Segmentation and object-based
classification for the extraction of the building class from LIDAR
DEMs”, Computers & Geosciences, 33, pp.1076-1087
RICHARDS, J.A. AND JIA, X., “Remote Sensing Digital Image
Analysis : an Introduction”, Springer-Verlag, 1999
VAN GENDEREN et Al. , 1978, “Remote sensing: statistical testing of
thematic map accuracy”, Proceedings of the twelfth international
symposium on remote sensing of environment, pp. 3-14
VILLA P. ET AL., 2011, “A hybrid multi-step approach for urban area
mapping in the Province of Milan, Italy”, AIT Associazione Italiana di
Telerilevamento
ZHANG Y., 1999, “Optimisation of building detection in satellite
images by combining multispectral classification and texture
filtering”, ISPRS Journal of Photogrammetry & Remote Sensing, 54 ,
pp. 50–60
QuantumGIS 1.8 Lisboa, User Guide
Trimble, eCognition Developer 8.8, User Guide
Trimble, eCognition Developer 8.8, Guided Tour 1 “Getting started –
Example: Simple Building Extraction”
Trimble, eCognition Developer 8.8, Guided Tour 3 “Advanced RuleSet
Writing – Example: Building Extraction ”
clxxvi
clxxvii
clxxviii
Sitografia
Digital Globe,
http://www.digitalglobe.com/
UGS – COSMO-SkyMed
http://www.cosmo-skymed.it/
Servizio Geologico, Sismico e dei Suoli - Catalogo dei Dati Geografici,
http://geo.regione.emilia-romagna.it/geocatalogo/
OPEN DATA - Comune di Bologna,
http://dati.comune.bologna.it/
Università Iuav di Venezia - Facoltà di Pianificazione del Territorio -
NUOVE TECNOLOGIE & INFORMAZIONE TERRITORIO,
http://www.didatticaericercasit.it/
SUPSI – Istituto scienza della Terra,
http://www.supsi.ch/ist
Dutton e-Education Institute,
https://www.e-education.psu.edu/
Centre de Recerca Ecològica – Aplicacions Forestals,
http://www.creaf.uab.es/
clxxix
USGS – Science for a changing world,
http://Ipdac.usgs.gov/
clxxx
USGS – Science for a changing world,
http://eo1.usgs.gov/
NASA,
http://www.nasa.gov/
La data dell’ultimo accesso alle URL citate è: 24/09/2013
clxxxi
clxxxii
clxxxiii
Ringraziamenti
Desidero innanzitutto ringraziare il Professor Bitelli per aver suscitato
in me un nuovo, profondo e sentito interesse in questo ultimo anno di
Università;
ringrazio inoltre la Dott.sa Francesca Franci e il Dott. Emanuele
Mandanici per aver incoraggiato e coordinato i miei sforzi negli ultimi
mesi.
Ringrazio di aver potuto ricevere il sostegno dei miei familiari e delle
mie amiche
Ringrazio tantissimo la vicinanza di Evandro
Da ultimo ringrazio infinitamente i ragazzi con cui ho trascorso questi
lunghi e pieni anni, e che mi hanno insegnato un nuovo spirito con cui
affrontare tutto.