+ All Categories
Home > Documents > CATASTO UAV CAD L iDAR - ex.geoweb.it · della geodesia e topografia, del telerilevamento aereo e...

CATASTO UAV CAD L iDAR - ex.geoweb.it · della geodesia e topografia, del telerilevamento aereo e...

Date post: 20-Oct-2018
Category:
Upload: lequynh
View: 221 times
Download: 0 times
Share this document with a friend
52
Rivista bimestrale - anno XX - Numero 1/2016 - Sped. in abb. postale 70% - Filiale di Roma La prima rivista italiana di geomatica e geografia intelligente EGNOS E GALILEO PER SALVARE VITE UMANE SULLE STRADE EUROPEE CON E -C ALL Gen/Feb 2016 anno XX N°1 INFORMAZIONE GEOGRAFICA 3D CATASTO RILIEVO TOPOGRAFIA FOTOGRAMMETRIA GNSS BIM CAD REMOTE SENSING CARTOGRAFIA GIS WEBGIS SPAZIO AMBIENTE URBANISTICA BENI CULTURALI EDILIZIA SMART CITY LiDAR NETWORKS TERRITORIO Scansione Laser Terrestre e Sensori GNSS-RTK Lotta a due tra Google e Apple Measuring quality, understanding the value LBS UAV
Transcript

Rivis

ta bim

estra

le - a

nno

XX -

Num

ero

1/20

16 -

Sped

. in a

bb. p

ostal

e 70

% - F

iliale

di Ro

ma

La prima rivista italiana di geomatica e geografia intelligente

EGNOS E GALILEOPER SALVARE VITE

UMANE SULLE STRADE

EUROPEE CON E-CALL

Gen/Feb 2016 anno XX N°1

INFORMAZIONE GEOGRAFICA

3D

CATASTO

RILIEVO TOPOGRAFIA

FOTOGRAMMETRIA

GNSS

BIMCAD

REMOTE SENSING

CARTOGRAFIA

GIS

WEBGIS

SPAZIO

AMBIENTEURBANISTICA

BENI CULTURALI

EDILIZIA

SMART CITY

LiDAR

NETWORKS

TERRITORIO

Scansione Laser Terrestre e Sensori GNSS-RTK

Lotta a due tra Google e Apple

Measuring quality, understanding the value

LBS

UAV

Sai cosa c’è sotto?

> Studio del sottosuolo georadar, sismica, geoelettrica, logger da foro.

> Rappresentazione dei fondali e delle coste Multibeam, SideScanSonar, SubBottom Profiler.

> Vulcanologia e Monitoraggio sismico sismometri, gravimetri, inclinometri.

> Monitoraggio ambientale e Ingegneria civile georadar, sismografi, laser scanner, magnetometri.

> Qualificato laboratorio di Assistenza Tecnica.

> Sistemi disponibili a noleggio.

> Noleggio a lungo termine.

Codevintec Italianavia Labus 13 - Milanotel. +39 02 [email protected]

CODEVINTECTecnologie per le Scienze della Terra

SottocontrolloStrumenti per lo studio del sottosuolo e dei fondali marini.

Phot

o: S

ophi

e H

ay

01_Adv_Geomedia_gen2015_Esec.indd 1 29/01/2016 12:02:01

Rilievo 3D, siamo pronti?Per identificare le tendenze attuali nel settore del rilievo 3D, una ricerca di mercato organizzata congiuntamente da BNP Media e dalla rivista POB ha portato interessanti risultati. L’intervista, rivolta principalmente ai lettori della rivista americana POB (Point Of Beginning), ha ricevuto risposta da professionisti che nella maggioranza dei casi - oltre l’80 per cento di tutti i partecipanti – hanno il ruolo di approvare o raccomandare alle loro aziende l'acquisto di attrezzature. Considerata la velocità attuale di adozione delle nuove tecnologie, molti geometri professionisti sentono il rischio professionale di rimanere indietro se non si muovono più che velocemente. Al contempo però, sempre i geometri segnalano una forte preferenza per gli strumenti tradizionali. Più del 90 per cento utilizza stazioni totali. L’indagine ha mostrato un lieve calo rispetto allo scorso anno, ma non una variazione statisticamente significativa. Un gap leggermente più grande è emerso per i sistemi GPS / GNSS il cui uso aumenta di anno in anno.Il 28% dei geometri utilizza strumenti specifici per il 3D, con un lieve aumento rispetto al 2015. Il software di modellazione continua a guidare la lista dei tools utilizzati, passando dal 58 per cento nel 2015 al 66 per cento nel 2016. Un aumento più forte si è verificato invece sui laser scanner terrestri, quasi raddoppiando dal 19 per cento nel 2015 al 37 per cento nel 2016 (dati relativi al primo trimestre). Una preoccupante anomalia appare nei sistemi LiDAR aerei, che scendono dal 48 al 23 per cento. Sicuramente l’avvento dei droni sta portando grandi problemi per le compagnie che gestiscono aerei per rilevamentGli intervistati inoltre segnalano che sia i college che le università (stiamo parlando degli Stati Uniti !) non sono adeguati alla formazione della prossima generazione di geometri che dovrà essere in grado di applicare la tecnologia 3D in modo corretto.

Uso degli strumenti 3D (da Point of Beginnings e BNP Media)

66% Software di modellazione 3D

54% Nuvole di punti

37% Laser scanner terrestri phase-based

31% Camere fotogrammetriche

31% Laser scanner terrestri time-of-flight

23% Lidar aereo

20% Lidar mobile terrestre

La domanda di servizi 3D è in rapida crescita, secondo quanto riporta la metà degli intervistati. Una delle interessanti visioni di questa indagine è la percezione di ciò che sta guidando tale domanda. Il rapporto qualità / prezzo è il parametro principale che guida, ma questo viene sempre più segnalato come un fattore meno importante.

L’aumento notevole che si registra è nell’uso del 3D nei mercati di largo consumo(film e videogiochi, per esempio) con un fattore del mercato di consumo che è passato da 3 per cento nel 2015 al 17 per cento nel 2016.

Il settore della topografia e cartografia ha abbandonato da tempo la vecchia separazione tra planimetria e altimetria che era dovuta alla semplificazione necessaria per le strumentazioni disponibili. Oggi tutti i rilievi nascono 3D e forse non abbiamo ancora messo a punto sistemi di gestione e valutazione che siano diversi dalle classiche proiezioni ortogonali con sezioni, prospetti e piante, ormai retaggio della citata separazione plano-altimetrica che riusciva, anche bene comunque, a rappresentare il mondo tridimensionale tramite proiezioni sui piani assonometrici fondamentali.

Buona lettura,Renzo Carlucci

IN QUESTO NUMERO...

geomediaonl ine . i t

GEOmedia, bimestrale, è la prima rivista italiana di geomatica.

Da 20 anni pubblica argomenti collegati alle tecnologie dei

processi di acquisizione, analisi e interpretazione dei dati,

in particolare strumentali, relativi alla superficie terrestre.

In questo settore GEOmedia affronta temi culturali e tecnologici

per l’operatività degli addetti ai settori dei sistemi informativi

geografici e del catasto, della fotogrammetria e cartografia,

della geodesia e topografia, del telerilevamento aereo e

spaziale, con un approccio tecnico-scientifico e divulgativo.

In copertina un'immagine dell casa "Spirent Solutions for the Automotive Industry". Fra i Servizi wireless, il cui fondamento è la connettività, rientra

anche e sopratutto il sistema eCall. Ogni automobile ne sarà predisposta a partire dall'aprile 2018. L'iniziativa paneuropea

è stata progettata per accelerare i tempi di risposta circa la gestione delle emergenze stradali. Questi dispositivi favoriranno la

riduzione dei decessi sulle strade europee. (Credits: Spirent)

LE RUBRICHE

24 ASSOCIAZIONI

46 MERCATO

50 AGENDA

GEOMATICA PER L’INFORMAZIONE CLIMATICA

LOCALE E PER I SERVIZI CLIMATICI

UN CASO DI STUDIO PER L’AREA MEDITERRANEA

DI EMANUELA CAIAFFA, LUIGI

LA PORTA E MAURIZIO POLLINO

12

6

REPORTS

FOCUS

SALVARE VITE UMANE SULLE STRADE EUROPEEECALL CON EGNOS E GALILEODI MARCO LISI

16

SCANSIONE LASER TERRESTRE E

SENSORI GNSS-RTK PER LA CREAZIONE

DI MODELLI SPAZIALI URBANI

DI LUIGI COLOMBO

GUEST

DirettoreRENZO CARLUCCI, [email protected]

Comitato editorialeVyron Antoniou, Fabrizio Bernardini, Luigi Colombo, Mattia Crespi, Luigi Di Prinzio, Michele Dussi, Michele Fasolo, Flavio Lupia, Beniamino Murgante, Aldo Riggio, Mauro Salvemini, Domenico Santarsiero, Attilio Selvini, Donato Tufillaro

Direttore ResponsabileFULVIO BERNARDINI, [email protected]

RedazioneVALERIO CARLUCCI, GIANLUCA PITITTO, [email protected]

Diffusione e AmministrazioneTATIANA IASILLO, [email protected]

Comunicazione e marketingALFONSO QUAGLIONE, [email protected]

Progetto grafico e impaginazioneDANIELE CARLUCCI, [email protected]

MediaGEO soc. coop.Via Palestro, 95 00185 RomaTel. 06.62279612 - Fax. [email protected]

ISSN 1128-8132Reg. Trib. di Roma N° 243/2003 del 14.05.03

Stampa: SPADAMEDIA srlVIA DEL LAVORO 31, 00043 CIAMPINO (ROMA)Editore: mediaGEO soc. coop.

Condizioni di abbonamentoLa quota annuale di abbonamento alla rivista è di € 45,00.Il prezzo di ciascun fascicolo compreso nell’abbonamento è di € 9,00. Il prezzo di ciascun fascicolo arretrato è di € 12,00. I prezzi indicati si intendono Iva inclusa. L’editore, al fine di garantire la continuità del servizio, in mancanza di esplicita revoca, da comunicarsi in forma scritta entro il trimestre seguente alla scadenza dell’abbonamento, si riserva di inviare il periodico anche per il periodo successivo. La disdetta non è comunque valida se l’abbonato non è in regola con i pagamenti. Il rifiuto o la restituzione dei fascicoli della Rivista non costituiscono disdetta dell’abbonamento a nessun effetto. I fascicoli non pervenuti possono essere richiesti dall’abbonato non oltre 20 giorni dopo la ricezione del numero successivo. Gli articoli firmati impegnano solo la responsabilità dell’autore. È vietata la riproduzione anche parziale del contenuto di questo numero della Rivista in qualsiasi forma e con qualsiasi procedimento elettronico o meccanico, ivi inclusi i sistemi di archiviazione e prelievo dati, senza il consenso scritto dell’editore.

Rivista fondata da Domenico Santarsiero.

Numero chiuso in redazione il 20 marzo 2016.

Science & Technology Communication

una pubblicazione

Aerrobotix 15

Codevintec 2

Epsilon 37

Esri Italia 25

Flytop 22

Geogrà 45

Geomax 52

Hexagon S&I 11

Italdron 48

Me.S.A. 31

Planetek 23

Progesoft 46

Sinergis 51

Sistemi Territoriali 50

TECHNOLOGYforALL 47

Teorema 41

Topcon 49

Trimble 43

INSERZIONISTI

26 MONITORAGGIO INNOVATIVO PER LA GESTIONE DELL’INQUINAMENTO AMBIENTALE PROVOCATO DA RILASCI ABUSIVI DI RIFIUTIL’ESPERIENZA DEL PROGETTO DROMEPDI CARMINE MASSARELLI, MARIA RITA MUOLO, VITO FELICE URICCHIO E NICOLA DONGIOVANNI

32GEOGRAFIA

INTELLIGENTEE USER EXPERIENCE

LOTTA A DUE TRA GOOGLE E APPLE NEL MONDO DELLE

INFORMAZIONI GEOSPAZIALI PER TUTTI

DI DOMENICO SANTARSIERO

38 VOLUNTEERED GEOGRAPHIC INFORMATIONMEASURING QUALITY, UNDERSTANDING THE VALUEBY VYRON ANTONIU

6 GEOmedia n°1-2016

FOCUS

Il presente lavoro descrive un metodo per superare i pro-blemi legati alla scienza dei

cambiamenti climatici al fine di rendere quest’ultimi, e tutte le loro implicazioni, accessibili agli utenti finali: stakeholders, decisori politici, cittadini. Un moder-no approccio scientifico, deve prevedere una comunicazione sulle condizioni climatiche, con particolare riguardo al tema dei cambiamenti climatici, chiara, accessibile e percettiva per tutti, soprattutto allo scopo di far sor-gere il giusto interesse per questi temi. I risultati provenienti dallo studio dei cambiamenti clima-tici, oltre ad essere recepiti dai responsabili politici, che devono prendere decisioni che portino ad azioni concrete per mitigarne i possibili effetti negativi futuri, devono anche essere riconosciuti dai comuni cittadini che dovran-no accettare eventuali restrizioni potenzialmente condizionanti le loro abitudini di vita (per esempio dei propri consumi energetici).

Di conseguenza, appare necessario rigenerare il mondo dei policy makers in modo da renderlo più aperto e partecipe agli strumenti di comunicazione interattiva di rete.

Caso di studio e obiettiviViene descritto un caso di studio volto alla definizione di uno stru-mento in grado di rispondere ai seguenti requisiti:

• sviluppare una metodologia in grado di fornire informazioni sul clima, a livello regionale, e anche a scala locale, adeguate, inerenti alla realtà e funzionali per le esigenze dei diversi seg-menti della società [1, 2];

• sviluppare uno strumento di tipo bottom-up, al fine di coin-volgere le parti interessate e i responsabili politici sin dalle prime fasi del processo di ricer-ca, con l’obiettivo di avere una buona visione delle loro specifi-che esigenze a scala regionale e locale [3];

• sviluppare un’applicazione WebGIS, basata su casi di studio relativi a diversi settori della società, come il turismo, l’energia, i rischi naturali (ad esempio, gli incendi) per l’area del Mediterraneo.

Servizi Climatici: che cosa sono?I Servizi Climatici (SC) riguarda-no la produzione della conoscenza del clima e la sua comunicazione allo scopo, tra gli altri, di assicu-rare che la migliore disponibile scienza del clima riesca ad arri-vare come notizia utile per tutti. I SC forniscono informazioni realistiche sul clima e funzionali alle esigenze di diversi fruitori che vanno dai semplici cittadini, agli stakeholders, ai responsabili politici, ai settori industriali ed agricoli, nonché quelli relativi a turismo, servizi, salute pubblica, ecc. Inoltre i SC ci informano del clima futuro per valutare e, se necessario, per contrastare le cause prime dei CC, studiare eventuali manovre di adattamento e nuove

La diffusione dei dati relativi ai Cambiamenti

Climatici deve prevedere una comunicazione,

chiara, accessibile e percepibile da tutti: i Servizi

Climatici si pongono come «interpretatori» dei

dati climatici scientifici, da comunicare agli

utenti finali per incontrare le loro necessità.

Geomatica per l’informazione climatica

locale e per i Servizi Climatici

Un caso di studio per l’area mediterranea

di Emanuela Caiaffa,Luigi La Porta e Maurizio Pollino

Fig. 1 - Collocazione dei Servizi Climatici tra dati e osservazioni scientifiche, modelli previsionali e utenti finali.

FOCUS

GEOmedia n°1-2016 7

strategie di investimento. Sostanzialmente tra gli scopi dei Servizi Climatici ci sono i seguenti obiettivi:

• compilare informazioni sul cli-ma, redatte e trasmesse per sod-disfare le esigenze degli utenti;

• fornire informazioni del clima in modo da supportare il pro-cesso decisionale sia da parte di individui che di organizzazioni;

• avere a disposizione un mec-canismo di accesso alle infor-mazioni efficace e che risponda alle esigenze degli utenti;

• colmare l’ultimo miglio di di-stanza tra la grande quantità di dati climatici e le esigenze degli utenti finali.

Servizi Climatici: comunicazione e visualizzazioneTra i ben noti problemi legati alla ricerca scientifica climatologica, si deve tenere conto del problema della comunicazione dei dati/risultati e della loro condivisione e visualizzazione.L’obiettivo dei Servizi Climatici è quello di fornire informazioni climatiche su misura, consulta-bili e personalizzabili, al fine di fornire gli strumenti decisionali per gli utenti finali, per ridurre la vulnerabilità delle loro attività e ottimizzare gli investimenti in vista della variabilità del clima e del suo cambiamento. La ricerca climatologica si basa su climi passati, presenti e futuri e produ-ce previsioni su scale temporali mensili, stagionali o decennali, facendo anche uso di proiezioni climatiche a seconda dei diversi scenari di emissione di gas a effet-to serra. Queste previsioni sono percepite dai responsabili politici, dai cittadini, ecc., con un certo grado di incertezza che diventa cruciale quando i soggetti inte-ressati devono formulare misure di mitigazione che devono essere comprese e adottate. Un insieme di caratteristiche distinguono i

dati sui cambiamenti climatici e si possono riassumere come: l’in-certezza, la tipologia, il modo di come studiarli, le azioni con cui mitigarli, ecc. e, infine, ma non di minore importanza, la maniera di come comunicarli [4, 5].Il presente lavoro, utilizzando dati provenienti da modelli climatolo-gici, dimostra come la Geomatica risulta adatta a caratterizzare terri-torialmente i fenomeni climatici coinvolti (figura 1) e quanto si sia rivelato utile creare un’applica-zione geografica basata sul Web (WebGIS) per comunicare i dati e condividere i risultati.

Materiali e metodiI modelli climatici rappresenta-no una buona parte dei processi fisici di una regione e sono utili per spiegare le variazioni di tem-peratura e precipitazioni, i cam-biamenti di radiazione solare e la velocità del vento. L’area mediter-ranea è particolarmente interessata dai cambiamenti climatici e ci si aspetta per il futuro un aumento di temperatura con estati più sec-che. È possibile immaginare come questo aspetto rivesta la massima importanza sia per un’area densa-mente popolata sia per gli effetti sulle innumerevoli attività umane (turismo, agricoltura, piscicoltura, traffici navali, ecc.) che in essa, e su di essa insistono.Ma il vero problema cruciale è quello di realizzare finalmente una correlazione reale ed efficace tra scienziati e pubbliche ammi-nistrazioni, includendo anche organismi e istituzioni coinvolte nella preparazione di piani di prevenzione e nella classificazione dei potenziali impatti dei cambia-menti climatici.

Dati iniziali Il modello regionale accoppiato PROTHEUS, è composto da un modello atmosferico regio-nale RegCM3 e dal modello oceanografico MITgcm, unito

dall’accoppiatore OASIS3 [6]. L’orizzonte temporale, di interesse per lo studio, è il periodo 2010-2050, al fine di comprendere i contributi sia di variabilità inter-decennale, sia del cambiamento climatico. Tra i risultati prodotti dai modelli climatologici/mate-matici le grandezze caratterizzanti il presente studio sono: Climate Index (TCI), Wind Power (WP) e Fire Weather Index (FWI), che provengono da simulazioni con-dotte con i modelli climatologici MED44i_ERAINT e Protheus. I risultati delle simulazioni mo-dellistiche effettuate per l’area mediterranea sono memorizzati come file in formato NetCDF (Network Common Data Form).

Metodologie GIS e WebGISAttraverso opportune elabora-zioni, i file NetCDF sono stati trasformati in un formato GIS compatibile e opportunamente strutturati in un progetto GIS. In questo modo è stato possibile sfruttare i vantaggi di elaborare dati georiferiti, aggiungendo un nuovo significato dal punto di vista degli Indici Climatici, dato dalla possibilità di combinare queste informazioni con altri tipi

Fig. 2 - Architettura logica del WebGIS CLIMRUN

8 GEOmedia n°1-2016

FOCUS

di dati caratterizzanti l’area dal punto di vista socio-economico. DataBase geospaziali e mappe vengono conservati e gestiti in un appropriato repository: possono essere visualizzati e interrogati per mezzo di un desktop GIS o via web (tramite un’applicazione WebGIS).

Il WebGIS CLIMRUNLo scopo principale del WebGIS CLIMRUN, dovendo comunica-re risultati climatici, è di rendere territorialmente compatibili e faci-li da gestire, gli output dei modelli climatici, che forniscono dati sugli scenari attuali e futuri riguardanti alcuni temi di interesse come: Tourism Climatic Index ( TCI) [7, 8, 9] , Wind Power (WP) [10] e Fire Weather Index (FWI) [11, 12].Il WebGIS CLIMRUN, utilizza software open source, il cui uso è regolato solo dalla licenza GNU General Public License. In par-ticolare, come Web server e Web application, gli ambienti software utilizzati sono: GeoServer (http://geoserver.org) e Geo-Platform (https://github.com/geosdi/geo-platform) sviluppato da geoSDI (www.geosdi.org).

Applicazione WebGISL’applicazione WebGIS in oggetto è accessibile all’indirizzo:

http://www.climrun.eu/webgi-sclimrun/index.htmlDalle simulazioni condotte con modelli climatologici regionali come PROTHEUS (che ha un orizzonte temporale al 2050) e MED44i_ERAINT sono stati ricavati i seguenti indici: Tourism Climate Index (TCI), Wind Power (WPI), Fire Weather Index (FWI).

Tourism Climate Index (TCI)Il TCI è un metodo per quan-tificare e classificare un “clima favorevole”, basato sulla nozione di “human comfort”, tipicamente per interessi turistici, con lo scopo di determinare se e come le risorse turistiche in Europa possano cam-biare per ragioni legate ai cambia-menti Climatici [9].Il TCI è stato sviluppato da Mieczkowski [13] e consiste di cinque sub-indici ognuno rap-presentato da una o due variabili climatiche pesate in accordo con la loro relativa importanza. La formula di Mieczkowski è:

TCI = 2� [(4Cdt + Cdl + 2R+ 2S +W)] = 100 (1)

in cui Cdt è il daytime comfort, Cdl è il daily comfort, R è la pre-cipitazione, S è il sunshine e W è il vento.Il daytime comfort index Cdt usa le variabili: temperatura massima

giornaliera e umidità relativa mi-nima giornaliera ed ha un peso, nel calcolo del TCI, del 40%. Il daily comfort index usa le variabili: temperatura media giornaliera e umidità relativa ed ha un peso del 10%. Il termine R è la precipita-zione totale con peso del 20%, mentre S (sunshine) indica le ore totali di luce del sole con peso del 20%. Infine, W è la velocità media del vento con peso del 10% [14].Per ottenere i cambiamenti che subirà il TCI nell’intervallo futu-ro 2021-2050 (rispetto a quello dell’intervallo passato 1961-1990), si opera, mediante un approccio GIS-based, una sottra-zione dei files ottenuti dalle elabo-razioni e simulazioni dei modelli. Nella figura 3, che mostra la diffe-renza tra le elaborazioni dello sce-nario del passato (1961-1990) e lo scenario previsto (2021-2050), si può vedere dove e in che misura si attendono cambiamenti del TCI, tenendo presente che “rosso” (class decrease) indica un peggioramen-to, che investe proprio l’area del bacino del Mediterraneo.Wind Power Index (WPI). I cam-pi di vento possono essere con-siderati come variabile climatica d’interesse sia per la produzione di energia da rinnovabili [10], sia per la previsione del rischio naturale da incendi boschivi [15]. Oltre le previsioni now-casting e stagiona-li, per quanto riguarda il settore energetico, sarebbe necessario disporre di una modellazione del vento in un arco temporale più lungo in modo da avere una buona valutazione locale utile alla stima dei rischi che potrebbero influenzare il rendimento degli investimenti nel tempo.L’esempio mostrato in figura 8 mostra l’andamento degli scenari, ottenuti analizzando i set di dati eolici su tutta l’area europea e mediterranea. La domanda a cui rispondere è: quali cambiamenti ci aspettiamo in termini di energia eolica?

Fig. 3 - Esempio che mostra i cambiamenti del TCI.

FOCUS

GEOmedia n°1-2016 9

Essa diminuirà o aumenterà nei prossimi quarant’anni? Mappando gli scenari WP per i due intervalli di tempo, e WP_1961_1990, WP_2021_2050, e determinando la loro differenza, è stato possibile calcolare e poi visualizzare, le aree in cui la WP diminuisce e le aree in cui aumenta.Il tematismo del Wind Power, riportato in figura 4, mostra il risultato della differenza tra i due scenari: quello relativo al periodo 2021 2050 e quello relativo al periodo 1961 1990. La rappresen-tazione cromatica mostra l’entità e la posizione sulla mappa dell’au-mento o del decremento della Wind Power in termini di GWh/year. E’ possibile chiaramente individuare alcune zone, dell’Eu-ropa centrale e di alcune aree Mediterranee (che appaiono in un colore più vicino al rosso) in cui la differenza è in positivo: questo indica un aspettato aumento della Wind Power di circa 3 GWh/year.Fire Weather Index (FWI). E’ fa-cile intuire quanto importante ed attuale sia il tema della occorrenza degli incendi boschivi e della loro intensità e vastità nonché delle loro implicazioni con i cambia-menti climatici. Risultati sulla tendenza del clima mediterraneo, sottolineano sempre più estati di siccità, in alcuni casi anche più lunghe rispetto alla durata della normale stagione [15].Il nome di questo indice, lette-ralmente Fuoco Meteo, ci indica che il FWI dipende fortemente da parametri meteorologici (come temperatura, pioggia, vento, etc.). Per investigare sulle relazioni tra il rischio incendi e le condizio-ni meteorologiche uno dei più accreditati metodi è il Canadian Fire Weather Index FWI (http://cwfis.cfs.nrcan.gc.ca/background/summary/fwi): un indice basato sulla meteorologia, sviluppato in Canada e usato in tutto il mondo, incluse l’Europa e l’area Mediterranea.

Il FWI è un utile strumento per stimare il pericolo del fuoco, in un modo generalizzato, basato su specifiche osservazioni meteoro-logiche come: valori medi giorna-lieri della temperatura massima dell’aria, umidità relativa, velocità del vento, cumulata delle precipi-tazioni sulle 24 ore. Tutto questo per calcolare i valori giornalieri di FWI.Per interpretare il trend del FWI mostrato nella figura 5, è ragio-nevole pensare che questo indice dipende fortemente dai parametri meteorologici come pioggia, tem-peratura, ecc. Le aree con una visi-bile differenza nei valori del FWI sono quelle più affette da siccità, aumento nel tempo della tempe-

ratura dell’aria, scarsità delle preci-pitazioni. Il risultato dello studio sta nell’individuare dove avviene il salto da una classe all’altra da parte dei valori dell’indice stesso. Il salto della classe può essere in positivo o in negativo e indica territorialmente dove ci si aspetta un cambiamento per il futuro, nell’intervallo di tempo 2021-2050. Una applicazione del FWI nel campo della pianificazione territoriale e della protezione civile potrebbe permettere un più effica-ce modo di prevenire gli incendi, una buona protezione delle foreste in qualsiasi periodo e, in partico-lar modo, nei periodi estivi e di particolare siccità. Tuttavia, è im-portante sottolineare che il FWI

Fig. 4 - Differenza tra i due scenari: 2021 2050-1961 1990 per il WPI.

Fig. 5 - Differenza tra i due scenari: 2021-2050 (giugno, luglio, agosto) - 1961-1990 (giugno, luglio, agosto).

10 GEOmedia n°1-2016

FOCUS

è calcolato prendendo in conside-razione solo parametri meteorolo-gici per l’area Mediterranea, non considerando importanti parame-tri come il land cover, le categorie di vegetazione e l’altitudine. Le zona con una maggiore differenza FWI (colore rosso sulla mappa di figura 6) sono quelle più colpite dalla siccità, aumento nel tempo della temperatura dell’aria, la scar-sità piogge, etc.

ConclusioniAllo scopo di accorciare le di-stanze che separano i cittadini dai politici, ed entrambe le cate-gorie dal mondo accademico, sta sempre più avendo successo un nuovo modo di approcciare le informazioni tecnico-scientifiche.

Il cambiamento dell’approccio dei responsabili politici ai problemi scientifici, fa emergere la necessità di sviluppare strumenti per aiutare a fare politica scientifica e tecnologi-ca, e per condurre ricerca integrata volta ad individuare gli strumenti più favorevoli alla costruzione di una società europea basata sulla conoscenza.Il WebGIS CLIMRUN ha rivelato la sua efficacia nella pubblicazione e condivisione dei risultati provenienti da modelli matematici climatici con la pos-sibilità di essere coerentemente legati al territorio. L’utilità del la-voro è stato quella di vedere dove insistono le differenze tra i diversi scenari e quindi dove sono aspet-tate variazioni e/o cambiamenti di

temperatura, della disponibilità di energia eolica, ecc., che possono influenzare, ad esempio, le attività umane come il turismo, la produ-zione di energia da eolico, ecc.Infine, l’utilizzo di software open-source, è stato un fattore chiave in grado di semplificare la strada per la diffusione e la condivisione dei risultati ottenuti nell’ambito delle attività di ricerca.

BIBLIOGRAFIA[1] Spruijt P., Knol A. B., Vasileiadou E., Devilee J., Lebret E., Petersen A. C.: Roles of scientists as policy advisers on complex issues: a literature review. Environmental Science & Policy. Volume 40, June 2014, pp. 16–25 (2014)[2] Hamilton, L.: Education, politics, and opinions about climate change: evidence for interaction effects. Clim. Change (2010) http://dx.doi.org/10.1007/s10584-010-9957-8 (2010)[3] Caiaffa, E.: Geographic Information Science in Planning and in Forecasting. In-stitute for Prospective Technological Studies (eds.) in cooperation with the European S&T Observatory Network. The IPTS Re-port, vol. 76, pp.36--41, European Commis-sion JRC, Seville, (2003)[4] Godess C.: Climate Services. Climatic Research Unit University of East Anglia UK [email protected], First CLIM-RUN wor-kshop on climate services (2012)[5] Doubuais, G.: Using ENSEMBLES to communicate uncertainty CLIMRUN Scho-ol on climate services. ICTP, Trieste, (2012)[6] Artale V., Calmanti S., Carillo A., Dell’A-quila A., Herrmann M.,, Pisacane G., Ruti P.M., Sannino G., Struglia M.V., Giorgi F., Bi X., Pal J. S., Rauscher S. The Protheus Group: An atmosphere–ocean regional climate model for the Mediterranean area: assessment of a present climate simulation” Clim. Dyn 35:721-740 (2009)[7] Perch-Nielsen S. L., Amelung B., Knutti R.: Future climate resources for tourism in Europe based on the daily Tourism Climatic Index. Climatic Change 103:363–381 DOI 10.1007/s10584-009-9772-2(2010)

[8] Amelung B., Viner D.: Mediterrane-an tourism exploring the future with the Tourism Climatic Index. J Sustain Tour 14:349–366 (2006)[9] Hamilton J. M., Maddison D., RSJ T.: Climate change and international tourism: a simulation study. Glob. Environ. Change 15:253–266 (2005)[10] Caiaffa E., Pollino M., Marucci A.: A GIS Based Methodology in Renewable Energy Sources Sustainability. International Journal of Agricultural and Environmental Information Systems, Vol. 5, No. 3, July-September (2014)[11] Amraoui M., Liberato M.L.R., Calado T.J., DaCamara C.C., Coelho L.P., Trigo R.M., Gouveia C.M.: Fire activity over Me-diterranean Europe based on information from Meteosat-8. Forest Ecology and Mana-gement 294, 62–75 (2013)[12] Brotons L., Aquilué N., de Cáceres M., Fortin M. j., Fall A. : How fire history, fire suppression practices and climate change affect wildfire regimes in Mediterranean landscapes. Wildfire Regime Change in Mediterranean Landscapes PLOS ONE 8, e62392 (2013)[13] Mieczkowski Z.: The Tourism Climatic Index: a method of evaluating world climate for tourism. The Canadian Geographer / Le Géographe canadien, Volume 29, Issue 3, pages 220–233, September (1985)[14] Tourism Climatic Index (TCI) C. Gian-nakopoulos Institute of Environmental Re-search & Sustainable Development National Observatory of Athens, Greece, September, 2012[15] Cane D., Ciccarelli N., Gottero F., Fran-cesetti A., Pelfini F., Pelosini R.: Fire Weather

Index application in north-western Italy. Advances in Science and Research, Coperni-cus Publications, 2, pp.77-80 (2008)

ABSTRACTThe present paper describes a methodology developed for overcoming problems linked to the climate changes science in order to make it effectively accessible to end users: stakehol-ders, policy makers, citizens. In today’s scien-tific approach, communication on climatic in-formation and on climatic changes condition, has to be clear, accessible and perceptive to everyone, to definitely arise the right interest on such problem. Results coming from climatic changes Research and Development projects, in addition to being accepted by policymakers, that have to take future decisions and practi-cal actions to mitigate their possible negative effects, must also be recognized and believed by ordinary citizens that have to understand and accept restrictions, for example in energy consumptions, potentially affecting their habit of life. Accordingly, it will be necessary to re-generate policy-making world so as to make it more direct and potentially open to networking interactive communication tools.

PAROLE CHIAVEGeomatica; Servizi Climatici; GIS; WebGIS

AUTOREEmanuela Caiaffa [email protected]

Luigi La Porta , Maurizio Pollino

ENEA National Agency for New Techno-logies, Energy and Sustainable Economic Development, UTMEA Energy and Envi-ronmental Modelling Technical Unit, C.R. Casaccia, Via Anguillarese, 301 – 00123 Rome, Italy

FOCUS

GEOmedia n°1-2016 11

IT_AD_A4_vector.indd 1 10/29/2015 1:26:42 AM

12 GEOmedia n°1-2016

FOCUS

Call sarà un servizio completamente gratuito, che fornirà aiuto alle

vittime di incidente stradale il più rapidamente possibile. In caso di un grave incidente, l’ap-parecchiatura eCall a bordo del veicolo compone automatica-mente il numero unico di emer-genza europeo 112 e comunica ai servizi di emergenza la posi-zione esatta del veicolo ( e qui entra in gioco la rete mondiale dei GNSS, incluso Galileo), il momento del sinistro e la di-rezione di marcia (dato molto importante sulle autostrade e in galleria), anche se il conducente è incosciente o incapace di fare una chiamata telefonica.Una richiesta di emergenza eCall può tuttavia anche esse-re attivata manualmente, per esempio dal testimone di un grave incidente, premendo un pulsante di emergenza sul cru-scotto dell’autoveicolo.Il concetto alla base di eCall

fu originariamente presentato nel 1999 dai servizi tecnici della Commissione Europea all'inizio del progetto Galileo. Il concetto è stato sviluppato in una serie di atti legislativi necessari per rendere possibile il servizio finale: l'adeguamento dei centri di risposta di emer-genza pubblica in tutta Europa (ad esempio, per visualizzare la posizione dell'incidente su mappe digitali), la facilitazione del trasferimento dei dati tra il veicolo e il centro di emergenza e, infine, l'inserimento su vei-coli di un dispositivo eCall in grado di calcolare la posizione e comunicare con il centro di emergenza. Quest’ultimo ed importante atto legislativo si realizza per mezzo di un nuovo regolamento di omologazione: per essere venduti in Europa un nuovo modello di auto o furgo-ne leggero deve essere dotato di un dispositivo eCall, compresa la funzione GNSS, che ha su-

perato il relativo collaudo in laboratori autorizzati.La Commissione europea ha proposto per la prima volta il regolamento sull'omologazione eCall nel giugno 2013, stiman-do che, una volta che il sistema sarà a regime, potrebbe salvare centinaia di vite ogni anno e aiutare le persone ferite ad otte-nere un recupero più rapido. [1]Il progetto eCall è stato soste-nuto dall’associazione dei co-struttori europei di automobili (ACEA) e da ERTICO – ITS (Intelligent Transport System) Europe, organizzazione che promuove la ricerca e definisce standard di settore.eCall sarà un importante infra-struttura di servizio europeo, derivante dalla sinergia di tecnologie di comunicazione avanzate con quelle offerte dall’ infrastruttura di posizionamen-to, navigazione e sincronizzazio-ne europea, basata sui sistemi EGNOS e Galileo.

Il 28 aprile 2015 il Parlamento

Europeo ha votato a favore della

“Regulation” (cioè la legge europea)

eCall, che impone a tutti i nuovi

modelli di autovetture e furgoni

leggeri che verranno certificati per il

mercato europeo di essere dotati di

un nuovo sistema automatico per le

emergenze, chiamato per l’appunto

eCall, a partire da aprile 2018.

di Marco Lisi

Salvare vite umanesulle strade europee

eCall con EGNOS e Galileo Fig. 1- Da Aprile 2015, il logo eCall sta diventando popolare in Europa (Fonte: Commis-sione Europea).

Fig 2 - le quattro fasi d’intervento del sistema eCall. (Fonte: Commissione Europea).

e

FOCUS

GEOmedia n°1-2016 13

Che cosa è eCalle come funzionaeCall è un sistema basato sul numero unico europeo di emergenza 112 e comprende le apparecchiature a bordo dei vei-coli (“In-Vehicle System”, IVS) e l’infrastruttura per ricevere e gestire la richiesta di soccorso, che si attiva in modo automati-co tramite sensori di bordo (ad esempio, quelli degli airbag) o manualmente.Il sistema scambia, per mezzo di reti pubbliche wireless per comu-nicazioni mobili, un set minimo di dati (“Minimum Set of Data", MSD, contenen-te informazioni critiche circa l’incidente) e stabilisce un ca-nale audio (sempre basato sul numero 112) fra gli occupanti del veicolo ed un eCall "Public Safety Answering Point" (PSAP), che è un luogo fisico dove le chiamate di emergenza vengono ricevute sotto la responsabilità di un'autorità pubblica o di un'or-ganizzazione privata riconosciuta dallo specifico Stato membro dell'Unione Europea.La connessione cellulare può an-che essere attivata manualmente. In ogni caso, il collegamento 112 voce è identificato come una chiamata di emergenza da parte del gestore di rete mobile (Mobile Network Operator, MNO), che instrada la chiamata al centro di interventi di emer-genza o PSAP più appropriato. A quel punto l'operatore PSAP ri-ceverà sia la chiamata vocale che il cosiddetto “insieme minimo di dati” (MSD), una parola digitale con una dimensione massima di 140 byte che comprende l'esatta posizione geografica del veicolo, la direzione di marcia, la modali-tà (automatica o manuale), il nu-mero di telaio ed altre informa-zioni utili ad attivare le squadre di pronto intervento necessarie a soccorrere le vittime di inci-denti. L'operatore PSAP è anche

in grado di ascoltare ciò che sta accadendo all'interno del veicolo e di parlare con gli occupanti. In questo modo, i servizi di emer-genza più efficaci possono essere rapidamente spediti alla scena dell'incidente: ambulanza, vigili del fuoco, polizia, ecc.

L'architettura delsistema eCallLa figura 3 mostra l’architettura complessiva del sistema eCall.Un elemento chiave per il suc-cesso di eCall è l'automazione della notifica dell'incidente stra-dale, ovunque in Europa, con gli stessi standard tecnici e la stessa qualità del servizio, utilizzando “Public Land Mobile Networks” (PLMN) (ad esempio GSM e UMTS). Gli standard che descrivono la trasmissione dei dati eCall sono stati sviluppati dal Mobile Standards Group Technical Committee dello European Telecommunications Standards Institute (ETSI), insieme al 3GPP (Third Generation Partnership Project), di cui l'ETSI è membro fondatore.Il 3GPP ha specificato i requi-siti di telecomunicazione del servizio eCall, i protocolli di trasmissione dei dati e gli aspet-ti della rete di segnalazione. Il modem utilizzato per trasferire il MSD dal veicolo al PSAP è stato anche specificato dal 3GPP.L’ETSI MSG ha inoltre for-

nito una guida generale ed ha sviluppato specifiche di prova standardizzate per consentire ai produttori di apparecchiature eCall di garantire l'interoperabi-lità dei loro prodotti.Il lavoro è anche in corso per sviluppare le specifiche ed assi-curare che esse possano essere implementate su reti LTE / 4G (ed in futuro 5G).

Le apparecchiature di bor-do (“In-Vehicle Equipment”)Gli apparati di bordo del sistema eCall (Figura 4) devono essere in grado di iniziare, gestire e finaliz-zare la procedura di trasmissione del messaggio di soccorso (atti-vata in modo automatico trami-te i sensori a bordo dei veicoli sensori ovvero manualmente). Tale messaggio contiene un set minimo di dati, tra i quali infor-mazioni sulla posizione derivanti dal ricevitore di segnali GNSS. Attraverso le reti pubbliche wi-reless per comunicazioni mobili si deve ottenere un collegamento

Fig. 4 - Architettura dell’apparato di bordo eCall.

Fig. 3 - L’architettura complessiva del siste-ma eCall.

14 GEOmedia n°1-2016

FOCUS

dati/voce quasi istantaneo con il PSAP più prossimo all’area del sinistro.I dati di posizione trasmessi si riferiscono all’ultima posizione nota del veicolo determinata dal ricevitore GNSS di bordo al momento dell’attivazione del messaggio. Nel caso in cui le in-formazioni disponibili non siano adeguate a fornire una determi-nazione affidabile della posizio-ne, il dato di posizione conterrà la migliore stima basata sull’ulti-ma posizione ottenuta in presen-za di un’adeguata fonte di dati disponibili, ovvero su un calcolo basato su altre informazioni disponibili (“dead-reckoning” o navigazione stimata).

ECall e GNSS: sfruttando le sinergie tra le infrastrutture europeeLa disponibilità di informazioni sulla posizione degli autoveicoli accurate ed affidabili è un ele-mento essenziale per il funziona-mento efficace del sistema eCall.Per questo motivo il regolamento eCall prevede l’utilizzo di tutte le costellazioni di satelliti per la navigazione esistenti, richieden-do in particolare la compatibilità del sistema almeno con i ser-vizi forniti dai sistemi europei Galileo ed EGNOS (“European Geostationary Navigation Overlay System”). L'obiettivo è di beneficiare di tutti i segnali GNSS disponibili per garantire la migliore disponibilità del se-gnale in ogni regione e in ogni condizione.Una speciale attenzione è stata dedicata nella stesura del regola-mento eCall alle molte preoccu-pazioni derivanti dal trattamento dei dati personali relativi agli individui. La Commissione Europea ha adottato tutte le misure necessarie per salvaguar-dare la privacy degli occupanti dei veicoli, previa consultazione con le autorità nazionali di pro-

tezione dei dati ( i cosiddetti “Garanti della privacy”) e l'Uf-ficio Europeo per la Protezione dei Dati (“European Data Protection Supervisor office”).Il timore principale è che, attra-verso le apparecchiature eCall installate nei propri veicoli, i cittadini europei possano essere continuamente controllati (ad esempio, nel loro comportamen-to di guida) e che, in ultima ana-lisi, la loro “privacy” possa essere violata.Per rispondere a questa preoccu-pazione, la specifica dell’appa-rato eCall di bordo (“In-Vehicle System”, IVS) prevede che esso rimanga inattivo in trasmissione fino al malaugurato verificarsi di un grave incidente. Inoltre, qualsiasi trattamento di dati per-sonali attraverso il sistema eCall rispetterà la legislazione in ma-teria di dati personali e la tutela dei consumatori.

Lo “stato dell’arte” dei sistemi di emergenza in Europa e nel mondoSistemi proprietari simili ad eCall e che si basano su SMS e reti cellulari sono già oggi forniti da alcuni produttori di auto-mobili. Il problema principale è stato finora la standardizzazione dei protocolli di comunicazione e delle apparecchiature a bor-do dei veicoli, per non parlare della complicazione in termini di certificazione e di problemi di responsabilità derivanti dalla mancanza di una soluzione unica su scala europea.In pratica, ad oggi nell’Unione Europea solo circa l'1% dei veicoli sono attualmente dotati di sistemi di emergenza privati; inoltre, questi sistemi proprietari non offrono interoperabilità e continuità di servizio su tutto il territorio della UE.Nella Federazione Russa, un sistema denominato ERA-GLONASS (Figura 5) è stato

ufficialmente approvato nel gen-naio 2015, dopo una risoluzione del governo della Federazione russa del 26 Dicembre 2014.Il sistema è simile a quello euro-peo eCall e si basa sulla compa-tibilità sia con il sistema globale di navigazione russo GLONASS sia con il sistema americano GPS. Le soluzioni tecnologiche sviluppate per il sistema ERA-GLONASS sono compatibili con eCall e possono essere in-tegrate nel sistema europeo di chiamata di emergenza 112.In Nord America, servizi pro-prietari simili ad eCall sono forniti da alcuni importanti produttori di auto (ad esempio il sistema OnStar della General Motors).

ECall: benefici attesied opportunità futureIl primo e più importante motivo che ha spinto l'Unione Europea verso l'adozione del sistema eCall di chiamata di emergenza in ogni nuovo autoveicolo sulle strade d’Europa è la prevista riduzione dei decessi per incidenti: si stima che eCall, quando pienamente operativo, possa salvare ogni anno almeno 2500 vite umane, riducendo inoltre la gravità delle lesioni non mortali e la sofferenza umana ad esse associata.Le chiamate di emergenza effet-tuate da veicoli o telefoni cellulari che utilizzano tecnologie wireless possono già oggi aiutare a ridurre in modo significativo morti e feriti in incidenti stradali, ma i conducenti spesso hanno la con-sapevolezza imprecisa della loro

Fig. 5 - Il sistema ERA-GLONASS, realizzato nella Federazione Russa e compatibilecon il sistema eu-ropeo eCall (Fonte: Glonass Union).

FOCUS

GEOmedia n°1-2016 15

posizione, soprattutto se su strade interurbane o all'estero. Nei casi più gravi, inoltre, le vittime po-trebbero non essere in grado di chiamare perché seriamente ferite o intrappolate nel veicolo.Ma, anche lasciando da parte i benefici umanitari per i cittadini europei, eCall è supportata da un “business case” molto convincen-te: solo nel 2009, ci sono stati in Europa 1,15 milioni di incidenti stradali, con circa 35.000 vittime e 1,5 milioni di feriti: una vera e propria carneficina! Tutto ciò rap-presenta un costo annuo di circa 160 miliardi di euro per i paesi europei.In termini freddamente finanzia-ri, eCall, offrendo una tempo di risposta alle emergenze fino al 50 per cento volte più veloce e ridu-cendo così i morti per incidente d'auto ed il numero di persone gravemente ferite, può far rispar-miare ai contribuenti europei molti miliardi di euro ogni anno (fino a 20 miliardi di euro, secon-do alcuni studi).Ulteriori benefici si possono poi aspettare dalla riduzione degli in-gorghi di traffico causati da inci-denti, con conseguente riduzione degli sprechi di carburante e delle emissioni di CO2.Con l’avvento della tecnologia eCall, in particolare con la di-sponibilità di ogni futuro veicolo europeo di apparecchiature di

comunicazione e posizionamento wireless avanzate, si apre una vasta gamma di possibili applicazioni e servizi, ad esempio, i cosiddetti “Location Based Services” (LBS). Infatti, l'adozione della piattafor-ma eCall avvicinerà sicuramente i due mondi dell’”automotive” e delle telecomunicazioni.Case automobilistiche e fornitori potranno anche offrire una serie di nuovi servizi a valore aggiunto, letteralmente rivoluzionando il loro tradizionale approccio alla manutenzione e alla logistica.Con eCall sarà inoltre più facile implementare le applicazioni già esistenti, come l'assicurazione auto telematica "pay-as-you-drive", i pedaggi stradali elettro-nici ed il tracciamento dei veicoli (“fleet management”). Infine, è previsto anche un mercato retrofit. Quando eCall inizierà ad apparire nei veicoli di nuova produzione, molti utenti decide-ranno di aggiornare il loro veicolo con prodotti “after-market”.

Uno sguardo al futuroL'implementazione di sistemi eCall in tutto il mondo rende-rà necessario stabilire requisiti uniformi per tali sistemi, con la definizione di un regolamento relativo ai sistemi di chiamata d'emergenza in caso di infortuni a livello delle Nazioni Unite. Questa iniziativa può favorire

l'interoperabilità tra i sistemi e facilitare lo sviluppo di soluzioni armonizzate ai sensi dell’accordo del 1958 della Commissione Economica delle Nazioni Unite per l'Europa (UNECE).In generale, eCall rappresenta un ottimo esempio dell’utilizzo di tecnologie avanzate, in particolare quelle relative allo spazio ed alla navigazione, al diretto servizio dei cittadini. Costituisce inoltre un atto di presa di responsabilità, con autentico “spirito di servizio”, da parte dell’Unione Europea nell’ambito della gestione delle infrastrutture critiche della nostra società.

RIFERIMENTI BIBLIOGRAFICI[1] The Impact Assessment performed by the European Com-mission in 2011 reports the figures on cost and benefits: http://ec.europa.eu/newsroom/dae/document.cfm?doc_id=2252[2] “Road safety in the European Union. Trends, statistics and main challenges”. European Commission, March 2015: http://ec.europa.eu/transport/road_safety/pdf/vademecum_2015.pdf

PAROLE CHIAVEeCall; Galileo; GNSS; Regulation; EGNOS

ABSTRACTThe article describes a new life-saving system envisaged forcars in the near future: eCall. This system was approved by theEuropean Parliament in April 2015 and obliges all new modelsof cars and light vans, that will be certified for the Europeanmarket, to integrate eCall automatic In-Vehicle Equipmentfor emergencies, starting from April 2018.

AUTOREDr. ing. Marco [email protected] Space Agency (ESA)

Versione 5

Vendita – Noleggio - Servizi chiavi in mano, anche con strumentazione cliente

• Rilievi batimetrici automatizzati• Fotogrammetria delle sponde• Acquisizione dati e immagini• Mappatura parametri ambientali• Attività di ricerca

16 GEOmedia n°1-2016

REPORTS

innovazione tecno-logica nel settore del rilevamento terrestre

ha portato in anni recenti alla diffusione di sistemi automatiz-zati, comprendenti più sensori integrati e multi-funzione e l’im-magine fotografica; questi siste-mi possono eseguire sul campo una serie di operazioni metriche che vanno dalla georeferenzia-zione diretta di oggetti in un riferimento assegnato, all’acqui-sizione rapida delle loro geome-trie spaziali (esterne, interne e di copertura) e di informazioni tematiche (colori, materiali, degrado) attraverso il supporto di tecnologie 3D, di tipo laser o fotogrammetriche di prossimità. I sistemi misurano da terra, sono trasportati su veicoli stradali o

piccoli aeromobili a pilotaggio remoto di ultima generazione.Una fase di acquisizione del dato così evoluta consente di semplifi-care significativamente il proces-so di rilievo, incrementando da un lato la produttività generale e dall’altro la completezza dei sot-toprodotti metrici di interesse, vettoriali e raster (prospetti, viste assonometriche e ortografiche, sezioni orizzontali e verticali, carte tematiche dei materiali e del degrado), estraibili dal mo-dello 3D.L’articolo affronta il tema del rilievo multi-scala del territorio urbano attraverso un’applicazio-ne sul centro storico dell’abitato di San Pellegrino Terme; vengo-no utilizzate tecniche avanzate di laser-scanning, di notevole impegno per l’estensione e per il grado di dettaglio richiesti, con

lo sguardo attento alle qualità dei manufatti architettonici e alla loro storia. Il tutto viene poi analizzato tramite la creazione di percorsi immersivi e navigabili di lettura e indagine nel modello virtuale ricostruito.Ne emerge il forte sviluppo ini-

L’articolo sviluppa i temi della

ricostruzione metrica dell’ambiente

urbano e del costruito, attraverso

uno studio effettuato sulla cittadina

termale di San Pellegrino Terme (BG),

ben nota anche per i suoi rilevanti

caratteri Liberty. Vengono descritti sia

la fase di rilevamento con laser scanner

terrestre e geo-referenziazione diretta,

tramite sensori satellitari GNSS-RTK

e la rete NetGeo, sia la costruzione di

un modello 3D multi-scala con texture

fotografiche dell’abitato.

di Luigi Colombo

SCANSIONE LASER TERRESTRE E

SENSORI GNSS-RTK PER LA CREAZIONE

DI MODELLI SPAZIALI URBANI

Fig. 1 - Scansione geo-referenziata di punti oggetto.

Fig. 2 - Bracket di ancoraggio del ricevitore satellitare sopra lo scanner.

L’

GEOmedia n°1-2016 17

REPORTS

ziale di questo insediamento, pensato per lo svago e il benesse-re, seguito da un progressivo de-cadimento che solo nuove idee e un rinnovato amore per il luogo potranno arrestare.

Standard per la costruzi-one di modelli urbaniLa costruzione e la gestione di modelli virtuali 3D dell’am-biente urbano (city model-ling) sono oggi regolamen-tate dall’Open Geospatial Consortium (OGC) attra-verso lo standard CityGML.Questi modelli, in genere multi-scala, trovano applica-zioni territoriali che spaziano, per esempio, dalla simulazione del paesaggio alla pianificazione urbana, dalla gestione di eventi calamitosi alla verifica della sicu-rezza territoriale.La modellazione presuppone la discretizzazione di specifiche en-tità geometriche selezionate sulla base di un predefinito livello di dettaglio (LoD), scelto fra cin-que caratterizzati da una ricchez-za di documentazione crescente in relazione sia della geometria degli oggetti sia dei loro conte-nuti tematici.Il modello può comprendere rappresentazioni multiple di ciascun oggetto, con attribuzio-ne di texture per aumentarne il realismo.I livelli introdotti variano dalla semplice rappresentazione 2,5D, corrispondente al LoD0, fino alla modellazione 3D, arricchita anche dagli interni del livello di dettaglio LoD4. In particolare, i caratteri distintivi risultano i seguenti, ben noti:

LoD0 (si tratta di un model-lo 2.5D, in cui è presente una descrizione planimetrica più l’annotazione delle quote);

LoD1 (fa riferimento a un modello solido senza coper-ture);

LoD2 (corrisponde a un modello solido con copertu-re e texture);

LoD3 (si tratta di un model-lo architettonico con parti-colari costruttivi);

LoD4 (riguarda un modello che comprende gli interni e la navigabilità virtuale).

Sulla base del livello di dettaglio selezionato, viene stabilita una metodologia di rilievo, le tecno-logie di supporto e i dati da ac-quisire, anche in riferimento alle finalità di impiego del modello spaziale.

Rilevamento perscansione laser terrestree per immaginiL’acquisizione con queste tec-nologie fornisce una sequenza di nuvole dense di punti oggetto referenziabili in un sistema di ri-ferimento assegnato.Tale operazione può essere effet-tuata nel caso della scansione laser sia in modalità indiretta, tramite punti di controllo (GCP) pre-segnalizzati sull’oggetto o coinci-denti con particolari naturali, sia diretta, utilizzando un sistema di posizionamento e orientamento satellitare (GNSS), associato al sensore di rilevamento laser.

Il sistema di posizionamento sa-tellitare utilizza dati di correzione (misure di codice o fase) per la localizzazione differenziale del sensore di rilevamento: preci-sione XYZ di tipo centimetrico (s.q.m. al 95%), sia in modalità interattiva RTK sia in post-pro-cessamento PPK. Le correzioni di posizione vengo-no trasmesse via Internet da una delle reti di stazioni permanenti attive sul territorio: per esempio, in questa applicazione, dalla rete italiana NetGeo di Topcon.Risulta pertanto in gran parte su-perato l’impiego di punti di con-trollo o di particolari naturali co-muni per l’aggregazione spaziale delle nuvole di punti, nonché per la loro geo-referenziazione in un sistema di riferimento univoco.Il procedimento diretto, cioè senza utilizzo di particolari per la connessione, è particolarmen-te conveniente in applicazioni territoriali con aree estese (che richiedono parecchie scansioni) quando sia necessario un livello di dettaglio corrispondente o inferiore al LoD2 (in analogia con le scale al 200 o inferiori) e precisioni di qualche centimetro nella posizione dei punti oggetto sul modello.

Fig. 3 - Organizzazione del rilevamento multi-scala sull’abitato di S. Pellegrino.

18 GEOmedia n°1-2016

REPORTS

È evidente che laddove la rice-zione del segnale satellitare non risulti garantita si dovrà procede-re in modalità indiretta o mista. In ogni caso, è utile collocare sul modello alcuni punti di control-lo (CP = Check Points), misu-rando topograficamente la loro posizione, così da permettere la valutazione dell’accuratezza spa-ziale (RMS al 95%) raggiunta nella ricostruzione. La figura 1 mostra lo schema operativo adottato per l’acqui-sizione geo-referenziata (diretta) dei punti oggetto: sono utilizzati un sensore laser (Faro) e due ricevitori satellitari (Topcon), montati con un apposito rac-cordo rispettivamente sopra lo scanner (fig. 2) e su un punto di orientamento (insieme ad una mira); entrambi i ricevitori, che operano in modalità statico-rapida, sono connessi telematica-mente ad una rete di correzioni satellitari (NetGeo) per il loro posizionamento RTK nel si-stema di riferimento nazionale (ETRF 2000).Questo accorgimento operativo, ripetuto due volte con diverse costellazioni satellitari, consen-te altresì la costruzione di una pseudo-rete satellitare che fa da inquadramento geodetico spazia-

le al set di scansioni registrate, con accuratezze poco più che centimetriche.La figura 3 mostra l’organizza-zione dei livelli di dettaglio pro-gettati per l’intervento multi-scala sull’abitato di S. Pellegrino Terme.Le scansioni effettuate durante la campagna di rilevamento sono state complessivamente 200, con la risoluzione spaziale media riportata in figura 4. La consistenza informatica è risul-tata di circa 26 GB (Fig. 5).L’applicazione sull’abitato di S. Pellegrino Terme è stata proget-tata con l’obiettivo di documen-tare il territorio e di costruire percorsi di lettura metrica e analisi dei caratteri del Liberty e dell’Art Nouveau presenti negli edifici dell’abitato.San Pellegrino Terme è un cen-tro turistico, un tempo assai alla moda nel mondo della borghesia imprenditoriale milanese, situa-to lungo la Valle del Brembo a nord della città di Bergamo. Famoso da sempre per le sue acque curative, spicca nel pa-norama territoriale locale per il fascino indiscusso delle sue architetture e l’eleganza dell’am-biente urbano. Tra i gioielli artistici presenti

emerge il Casinò Municipale (con le due torri) che richiama quello di Montecarlo, realizzato tra il 1904 e il 1906 e riportato recentemente agli antichi splen-dori, e l’imponente Grand Hotel del 1904 che fronteggia, con il suo prospetto ricco di decori, la riva sinistra del fiume Brembo.Si tratta, in questo caso, di un edificio cupolato di sette pia-ni, lungo 128 metri e con 250 stanze arredate sfarzosamente, che è collegato al Casinò e alle Terme, posti sulla sponda destra del fiume, dal bel ponte Principe Umberto I. Oltre a queste costruzioni, sono opere pregevoli anche il palazzo del municipio, la funicolare che sale alla fonte, gli edifici delle terme, alcune ville e alberghi, la stazione della vecchia ferrovia, tutte edificate agli inizi del seco-lo scorso durante gli anni della Belle Époque.Gli elementi costruttivi presen-tano forti richiami allo stile flo-reale (noto anche come Liberty), che si sviluppò in Europa, come superamento delle regole neo-classiche ed espressione dell’Art Nouveau, dalla fine dell’Otto-cento allo scoppio della Prima Guerra Mondiale; lo stile va famoso per i suoi decori: gli

Fig. 5 - Sequenze operative del processo di rilevamento.

Fig. 4 - Risoluzione spaziale media delle scansioni.

GEOmedia n°1-2016 19

REPORTS

stucchi su porte e finestre, i fre-gi, le volute e le spirali, le vetrate dipinte e le rifiniture in ferro battuto.Al fine di poter registrare anche questi caratteri tipologici del costruito, l’intervento di rilievo è stato eseguito, come indicato, su più livelli di dettaglio, che spaziano dallo zero al quat-tro e corrispondono alle scale 1:1000-1:200, 1:100 e 1:50. Si è utilizzato un laser scanner Faro Focus X330, con foto-camera RGB incorporata, caratterizzato da una lunga portata (circa 350 metri) e dunque particolarmente efficace per il rilievo di esterni e di spazi territoriali. Con questa tecnologia diviene possibile al-tresì una riduzione significativa delle stazioni necessarie per l’ac-quisizione delle informazioni, potendo spaziare agevolmente fra dettagli costruttivi distribuiti trasversalmente alla stretta valle del Brembo. Percorsi virtuali nel LibertyL’abitato di San Pellegrino Terme si sviluppa prevalentemente lun-go il fiume Brembo, secondo un asse geometrico che va all’incirca da Sud a Nord (Fig. 6). Tuttavia, causa l’avvento della Belle Époque e il rapido svilup-po dell’insediamento a cavallo tra Ottocento e Novecento, i dettami urbani originari verran-no presto superati dalle strava-ganze del Liberty. Infatti, nel periodo d’oro di San Pellegrino Terme, il mezzo più efficace e d’avanguardia per raggiungere la cittadina termale era rappresentato dalla linea ferroviaria. Questo assunto, stra-volgendo la tipica prospettiva valliva, comportò l’ideale trasla-zione verso est dell’asse urbano, considerando la Stazione FVB come porta d’accesso privilegiata del turismo borghese alla “Ville d’Eau”.Il viaggiatore tipo, sceso dalle

carrozze del treno all’ombra della pensilina lignea e superate le porte della stazione, si trovava di fronte una sorta di “frontiera” tra il mondo reale di provenienza e quello dorato di San Pellegrino Terme (fig. 7).In Piazza Granelli (la piazza della Stazione), lo sguardo del viag-giatore veniva attratto dalla mole gigantesca del Grand Hotel,

contenitore di lussi e ozio, di no-biltà e alta borghesia. A questo punto, il visitatore at-tento poteva riconoscere il filo conduttore del percorso Liberty: una serie di piloni decorativi in cemento, ideati dall’arch. Cavallazzi e ornati con volute ed elementi curvilinei in ferro battuto raffiguranti lo stemma comunale, regolava il flusso dei

Fig. 6 - Vista 3D del modello di punti, con il Brembo e il Grand Hotel.

Fig. 7 - La stazione della ferrovia Val Brembana.

20 GEOmedia n°1-2016

REPORTS

turisti e contrassegnava la passeg-giata verso i luoghi più belli della cittadina termale (fig. 8) Due coppie di pilastri, poste agli ingressi del Grand Hotel, prean-nunciano (ancora oggi) l’inizio di questo percorso che segue uno sviluppo Est-Ovest lungo il Ponte Umberto I, con due altri ordini di pilastri posti all’inizio e alla fine della struttura (fig. 9). Il viaggiatore è così irrimediabil-mente guidato verso Ovest, con lo sguardo rivolto alle svettanti torri del Casinò. La facciata rettilinea dello Stabilimento termale (fig. 10) accompagna il visitatore con colonne, lesene, volute e capitelli verso il rigoglioso parco secolare dell’Hotel Terme, che si adagia perfettamente al pendio dietro un’altra coppia di piloni del Cavallazzi.Continuando il percorso natu-rale, si arriva infine al cospetto dell’esempio più sfarzoso del Liberty locale, il Grand Kursaal, cioè il Casinò (fig. 11). Ma non tutti i visitatori possono concedersi al gioco d’azzardo; decisamente più salutare risulta dunque un soggiorno in altura negli agresti panorami della Vetta, condotti dalla Funicolare San Pellegrino - Kulm, che risale il fianco della montagna ed è ora in fase di ristrutturazione (fig.12). Più sotto, si apre il lungo Brembo, che presenta gli al-berghi, i bar e i ristoranti del passeggio turistico che contrad-distingue questa riva del fiume, opposta a quella del Grand Hotel. Il viaggiatore, ormai ra-pito da queste atmosfere, si può immergere nel relax della città, nel suo sfarzo, nella spensiera-tezza dei tanti ambienti che San Pellegrino Terme offriva e offre ancora oggi.

Fig. 8 - Esempi di elementi e decori Liberty degli edifici di S. Pellegrino Terme.

Fig. 9 - Sezione trasversale al corso del fiume Brembo (restituzione vettoriale e ortofoto).

Fig. 10 - L’edificio delle Terme (restituzione vettoriale e ortofoto).

GEOmedia n°1-2016 21

REPORTS

Il percorso virtualeLa creazione di un percorso virtuale di analisi lungo l’asse Liberty di San Pellegrino Terme è stata realizzata attraverso una campagna di misure effettuata con laser scanner 3D panora-mico: questo ha condotto alla costruzione di un modello ge-nerale di punti, colorato e geo-referenziato, in grado di fornire una documentazione misurabile e consultabile per molteplici usi. Il percorso nel Liberty si svilup-pa fra viewpoint (cioè punti di interesse), scelti come stazioni per scansioni laser in grado di for-nire una lettura immersiva della città e delle sue architetture. L’applicazione proposta sfrutta le potenzialità del software Faro Scene, grazie anche all’utilizzo

del plug-in VideoPro adatto alla gestione di navigazioni interat-tive 3D che intersecano tutti o alcuni viewpoint del modello, a seconda delle impostazioni sele-zionate dall’utente. La modalità di visualizzazione dinamica sul terreno è integrabile con viste virtuali dall’alto, generate dal modello di punti per cogliere l’effettiva tridimensionalità dell’urbanizzazione.

In corrispondenza dei punti d’interesse, sono possibili anche forme di consultazione statica delle elaborazioni geometriche e tematiche inerenti ai singoli og-getti architettonici.I limiti dell’applicazione sono attualmente ritrovabili nella cospicua mole di dati che il processore deve elaborare per il caricamento delle scansioni del modello. Infatti, se si vuole realizzare un percorso virtuale all’interno del modello è neces-sario disporre dei dati di tutte le 200 scansioni effettuate, il che porta irrimediabilmente ad un surplus di memoria RAM non sempre sostenibile agevolmente da un PC.

Misurabilità con Scene WebShare Cloud Molto significativa risulta anche l’applicazione WebShare, utiliz-zabile su un server anche privato, che offre funzionalità interessanti sia perché abilita la presentazione dell’intero repertorio delle sta-zioni inerenti alla scansione laser (con le scansioni in vista panora-mica geo-referenziata) sia perché permette operazioni di misura lineare, areale e volumetrica (sul-le immagini sferiche corrispon-denti) nonché eventuali collega-menti ipertestuali (fig. 13).WebShare permette una più flessibile lettura e gestione del territorio rilevato e delle sue an-tropizzazioni.

Fig. 11 - Il Casinò descritto dalle nuvole di punti.

Fig. 12 - La funicolare.

Fig.13 - Vista di Scene WebShare con l’immagine sferica scelta e il set di

quelle disponibili.

22 GEOmedia n°1-2016

REPORTS

Considerazioni finaliL’esperienza sviluppata ha messo in luce le grandi potenzialità che la scansione laser terrestre può offrire per la documentazione e l’analisi multi-scala del territorio urbano, soprattutto quando il sensore sappia garantire portate elevate, come il nuovo scanner Focus X330. Tutto questo, an-che a seguito dell’evoluzione raggiunta nella fase di acquisi-zione, contraddistinta sempre più da automazione e rapidità, semplicità d’uso e crescente affi-dabilità.Il processo di scansione si avvale in modo massivo del contribu-to del software che occupa un ruolo centrale sia ai fini del col-legamento delle nuvole di punti sia per la realizzazione di elabo-rati tecnici misurabili (raster-vettoriali). La texturizzazione fotografica e materica è attual-mente meglio integrata con la geometria acquisita, grazie alla registrazione diretta di nuvole di punti colorati da parte degli scanner più recenti e a una più efficace classificazione dell’ener-gia di ritorno a scopi tematici. Le criticità maggiori riguardano invece l’utilizzo professionale del dato 3D e l’estrazione da esso di elaborati grafici bidi-mensionali di tipo vettoriale,

per i quali l’intervento manuale in affiancamento ai software di modellazione CAD, generici o più dedicati all’applicazione, rappresenta un aspetto essen-ziale per la qualità del prodotto finale. La mole ridondante dei dati memorizzati rende poi pe-santi le operazioni da effettuare sul modello, cosa questa che neppure i processori di ulti-ma generazione hanno saputo risolvere concretamente. Si deve, infine, sottolineare come, soprattutto in aree fortemente antropizzate, la geo-referenzia-zione diretta acquisti un ruolo significativo: il fatto di poter utilizzare sensori satellitari RTK per il collegamento (diretto e automatico) delle nuvole, rap-presenta un valore aggiunto del processo di rilevamento territo-riale (seppure più oneroso) ed appare sicuramente consigliabile dove possibile.

RingraziamentiSi ringraziano Lorenzo Filippini e Riccardo Begnis, che su questa esperienza hanno sviluppato brillantemente la loro tesi di laurea magistrale in Ingegneria Edile, e l’Ing. Giorgio Ubbiali di DMStrumenti per il suppor-to tecnologico durante la cam-pagna di misure.

BIBLIOGRAFIAP.J. Besl, N.D. McKay, A method for registration of 3-D shapes. IEEE Transactions on Pattern Analysis and Machine Intelligence 14(2), 239–256 (1992)C. Brenner, C. Dold, N. Ripperda, Coarse orientation of terrestrial laser scans in urban environments. ISPRS Journal of Photogrammetry and Remote Sensing 63(1), 4–18 (2008)C. Strecha, P. Fua, L.Van Gool, A generative model for true orthorectification, in ISPRS International CongressSymposiun, Bejing, 2008M. Doneus, M. Pfennigbauer, N. Studnicka, A. Ullrich, Terrestrial waveform laser scanning for documentation of cultural heritage, in XXIIth CIPA Symposium, Kyoto Japan, 2009G.V. Vosselman, H. G. Maas, Airborne and terrestrial laser scanning. Whittles Publishing, Caithness, Scotland, 2010J. Chow, D.D. Litchi, W.F. Teskey, Accuracy assessment of the Faro Phocus 3D and Leica HDS 6100 panoramic-type terrestrial laser scanners through point-based and plane-based user self-calibration, in FIG Working Week, Rome, 1-15 (2012)J. Yang, H. Li, Y. Jia, Go-ICP: solving 3D registration efficiently and globally optimally, in IEEE International Conference on Computer Vision, 1457–1464 (2013)L.Colombo, B. Marana, Terrestrial laser scanning for urban survey: a test-case over the Dalmine company-town, Territorio Italia 2, 57-69 (2014)L.Colombo, B. Marana, Terrestrial multi-sensor survey: field experiences and remarks, Geomedia – Intergeo Special Issue 3, 20-23 (2014)L.Colombo, B. Marana, Terrestrial multi-sensor survey, GeoInformatics 18(3), 18-21 (2015)

PAROLE CHIAVEGnss-Rtk; netgeo; laser scanner; rilievo urbano

ABSTRACTThe paper develops the topics for the metric documentation of urban environments and buildings through an experimen-tal test regarding the thermal city of S. Pellegrino Terme, fa-mous for its Art Noveau characters. The performed process of terrestrial laser survey, with a direct GNSS-RTK geo-referenc-ing via a Reference Station Network, and the correspondent construction of a multi-scale photo-textured model of the site are described in detail.

AUTORELuigi Colombo, [email protected] Università di Bergamo - DISA - GeomaticaDalmine (BG)

GEOmedia n°1-2016 23

REPORTS

24 GEOmedia n°1-2016

MERCATO ASSOCIAZIONI

GEOWEB e mediaGEO insieme per promuovere la GeomaticaGEOWEB e mediaGEO hanno stipulato un accordo di collabora-zione per promuovere l’informa-zione legata al settore della Geo-matica e del patrimonio culturale. GEOWEB S.p.A. impegnata nel-lo sviluppo e diffusione di servi-zi basati sull’Information Techno-logy rivolti ai professionisti, e mediaGEO - editrice delle riviste GEOmedia ed Archeomatica nonché dei relativi portali web - in virtù del citato accordo, pro-muoveranno iniziative indirizzate a diffondere la Geomatica. Tra le prime iniziative messe in cantie-re segnaliamo il patrocinio per il prossimo Forum TECHNO-LOGY for ALL che si svolgerà a Roma dal 4 al 6 ottobre 2016 (www.technologyforall.it). GEOWEB è fra i primi partner

che hanno concesso il patrocinio al Forum. La collaborazione av-viata riguarda anche l’accesso alle riviste edite da mediaGEO, che permetterà ai clienti PREMIUM di GEOWEB di avere un abbo-namento annuale gratuito alla versione digitale di GEOmedia e Archeomatica e inoltre la possibi-lità di acquistare a prezzi scontati l’abbonamento annuale delle ver-sioni cartacee. GEOWEB è nata per lo svilup-po e la diffusione di servizi basati sull’Information Technology ri-volti ai professionisti. La società nasce da un’iniziativa del Consiglio Nazionale Geome-tri e Geometri Laureati e di Sogei S.p.A. per rendere disponibili un insieme di servizi mirati a sempli-ficare l’attività professionale degli iscritti alla categoria, a miglio-rare il rapporto con la Pubblica Amministrazione e a costituire nuove opportunità di lavoro. Maggiori informazioni sui servizi offerti da GEOWEB sono dispo-nibili al link

http://www.geoweb.it/servizi/

Il Collegio dei Geometri e dei Geometri Laureati di Roma ha concesso il patrocinio e i crediti formativi al TECHNOLOGY for ALL 2016Il Collegio Provinciale dei Geometri e Geometri Laureati di Roma ha concesso il patrocinio all’evento TECHNOLOGY for ALL 2016 che si terrà a Roma il 4, 5 e 6 ottobre 2016. Sono molte le tecnologie che interesseranno la categoria e saranno og-getto della manifestazione che, ricordiamo, prevede una giornata di dimostrazioni sul campo, interamente condotta dai produttori e fornitori di strumenti e servizi.La partecipazione all’evento, per gli iscritti al Collegio dei Geometri e Geometri Laureati di Roma, darà diritto al riconosci-mento di n. 1 credito formativo professionale ogni due ore fino ad un massimo di n. 3 CFP. Per la certificazione delle presenze sarà necessario registrare i propri dati sui moduli che verranno predi-sposti e resi disponibili in entrata e in uscita della manifestazione. L’organizzazione del TECHNOLOGY for ALL 2016 curerà la trasmissione dei nominativi dei partecipanti al Collegio.

technologyforall.it (Fonte: rivistageomedia.it)

61° CONVEGNONAZIONALE SIFET Lecce MUST - 8-9-10 Giugno 2016 Il convegno SIFET è stato or-ganizzato in sessioni tematiche. Ogni sessione sarà composta da due relazioni invitate di ampio respiro inerenti lo stato dell’arte del tema trattato e gli aspetti più avanzati di ricerca, seguite da al-cuni interventi applicativi specifici per ogni sessione selezionati tra le proposte inviate dai partecipanti (call for abstract). Ove possibile si darà spazio ad almeno un in-tervento sugli aspetti formativi, e uno degli aspetti professionali che caratterizzano la nostra asso-ciazione. Le sessioni tematiche previste quest’anno sono le se-guenti: Nuvole di punti e stampa 3D; Fotogrammetria da drone; Monitoraggio. Accanto alle ses-sioni tematiche, quest’anno si propongono anche due sessioni speciali: una sessione “ditte” or-ganizzata in modo pratico-appli-cativo mediante un’operazione di rilevamento sul campo in un’area prossima alla sede del convegno. Le ditte intervenute potran-

no affrontare il rilevamento del tema proposto con le tecniche di cui dispongono interagendo direttamente con i partecipan-ti al fine di mostrare l’efficacia delle soluzioni proposte; una sessione “benchmark” (chairman Francesco Mancini) di strumenti software per la fotogrammetria basata su immagini acquisite da SAPR. Allo scopo, è stato predi-sposto dal Comitato Scientifico un dataset completo che contiene immagini acquisite da drone con GoPro e camera compatta. La partecipazione a queste attività è aperta a tutti i soci e alle ditte che sostengono l’associazione SIFET e prevede una registrazione gratuita all’iniziativa con comunicazione del software e delle modalità che si intendono seguire (vedi la pagi-na relativa sul sito www.sifet.org).

Modulo iscrizione convegno

(Fonte: SIFET)

XX Conferenza Nazionale ASITA - 8-10 Novembre 2016, CagliariLa Federazione Italiana delle Associazioni Scientifiche per le Informazioni Territoriali ed Ambientali ha concesso il patrocinio per il TECHNOLOGY for ALL 2016La Conferenza Nazionale ASITA, giunta quest’anno alla 20ma edizione, ha l’obbiettivo di svolgere un ruolo di connessione tra mondo scientifico, istituzioni, prassi e pratiche territoriali. La Conferenza ASITA è un momento di incontro tra ricercatori, operatori, docenti, professionisti, utilizzatori pubblici e privati, enti e imprese operanti nei diversi settori del rilevamento, gestione e rappresentazione dei dati territoriali e ambientali. L’obiettivo scientifico è di favorire il confronto e l’approfondimento su temi specifici promuovendo una visione multidisciplinare e integrata del settore della Geomatica. Dalla prima edizione, con crescente successo, la manifestazione è divenuta il più importante evento tecnico-scientifico del settore e attrae costantemente un ampio pubblico di cultori e di specialisti.

Per qualsiasi informazione contattare i seguenti riferimenti:E-mail: [email protected] Tel. +39 329 9860457(Fonte: Asita) (Fonte: rivistageomedia.it)

CARTOGRAFIA, PROMOZIONE DELTERRITORIO, SMART CITIES San Benedetto del Tronto, 11 – 13 maggio 2016Il convegno annuale dell’Associazione Italiana di Carto-grafia si terrà l’11-13 maggio a San Benedetto del Tron-to. Il tema, particolarmente innovativo, sicuramente saprà suscitare l’interesse dei soci, degli appassionati, degli addetti ai lavori. La cartografia, infatti, viene (anche) proposta come mezzo di promozione del territorio e come stru-mento su cui basare la nuova filosofia delle città incentrate su percorsi sostenibili, laddove sulla qualità della vita, oltre alla razionalizzazione del traffico e dei trasporti pubblici locali, incidono anche l’informazione, la condivisione, la gestione delle reti, i flussi di materia e di idee che sostanziano la compagine urbana. Le città intelligenti, in cui ogni oggetto ed ogni soggetto rispondono a logiche definite sulla base di precisi parametri guidati da un ordine virtuale, possono infatti trovare nella cartografia il ri-ferimento fondamentale per governare questi nuovi processi, tanto innovativi quanto strutturalmente complessi. Maggiori informazioni sulla pagina dell’associazione relativa al convegno AICPer informazioni logistiche sul convegno e sui luoghi di interesse, modalità di iscri-zione e partecipazione, gli aggiornamenti: www.aic-cartografia.it alla voce “Conve-gno annuale dell’Associazione Italiana di Cartografia”

(Fonte: AIC)

GEOmedia n°1-2016 25

MERCATO

26 GEOmedia n°1-2016

REPORTS

abbandono illegale di rifiuti pericolosi costituisce una seria

minaccia per la salute umana e gli ecosistemi in generale al punto che anche la legislazione europea ha introdotto politiche e misure per promuovere la le-galità in questo campo. In par-ticolare, la direttiva quadro sui rifiuti, o la direttiva 2008/98/CE del Parlamento Europeo e

del Consiglio, del 19 novembre 2008, fornisce un quadro gene-rale dei criteri di gestione dei ri-fiuti e stabilisce le definizioni di base per la gestione degli stessi nell'ambito dell'UE.L’applicazione di tali normative si basa anche su un costante controllo del territorio, infatti, al fine di sostenere gli sforzi per un monitoraggio più efficace, anche dal punto di vista econo-

mico è necessario lo sviluppo finalizzato all’applicazione si-stematica di nuove tecnologie. Un monitoraggio “sostenibile” è particolarmente importante per le aree critiche, come gli ecosi-stemi agricoli, le aree protette, le zone costiere e le zone rurali, dove il degrado degli habitat e della biodiversità perso può essere molto veloce (Tang, Shao, 2015) e dove le distanze e le dif-

La ricerca condotta nell’ambito del progetto Drones for

Monitoring and Environmental Protection (DroMEP) ha

previsto la definizione di una metodologia smart e la

sperimentazione prototipale di tecnologie e protocolli

operativi necessari ad individuare e monitorare, sia dal

punto di vista qualitativo che quantitativo, le discariche

abusive e gli abbandoni incontrollati di rifiuti, evidenziando

l’eventuale presenza di rifiuti speciali pericolosi,

focalizzando l’attenzione sull’amianto in matrice friabile.

di Carmine Massarelli, Maria Rita Muolo, Vito Felice Uricchio e Nicola Dongiovanni

Monitoraggio innovativo per la gestione dell'inquinamento

ambientale provocato da rilasci abusivi di rifiuti

l’esperienza del progetto DroMEP

REPORTS

Fig. 2 – Le tre aree di studio.

Fig. 1 – Il rischio ambientale.

Fig. 3 – Mappa della perimetrazione dell’area test Gravina di Leucaspide.

L’

GEOmedia n°1-2016 27

REPORTS

ficoltà di accesso sono notevoli.Gli Aeromobili a Pilotaggio Remoto (APR) detti anche Unmanned aerial vehicle (UAV) hanno subito un forte sviluppo negli ultimi dieci anni princi-palmente grazie agli usi milita-ri, mentre solo da pochi anni iniziano a trovare applicazione per fini scientifici quali raccolta dati e telerilevamento di pros-simità. Il vantaggio principale consiste nell’effettuare indagini a bassa quota che restituiscono un’informazione più precisa e dettagliata rispetto a sensori aviotrasportati o satellitari.DroMEP è l’acronimo del pro-getto Drones for Monitoring and Environmental Protection che si propone di contribuire in modo significativo alla realizzazione di un sistema di monitoraggio in-telligente, sostenibile, integrato ed inclusivo per quanto riguarda la gestione delle problematiche ambientali legate alla presenza di rifiuti illecitamente abbando-nati soprattutto se contenenti amianto in matrice friabile. Il progetto si pone anche in con-tinuità con diverse iniziative re-gionali già messe in atto in am-bito regionale (Campobasso et al. 2014; V.F. Uricchio, 2013). L’aspetto fortemente innovativo di questo progetto è legato all’u-

so di droni e altre tecnologie smart in zone impervie e difficil-mente accessibili dal personale preposto al controllo del terri-torio. Inoltre, è stata realizzata un’app che ha reso possibile segnalare la presenza di nuovi abbandoni da parte dei cittadini e di poter meglio individuare le zone maggiormente soggette a tali illeciti. Tutti i dati acquisiti, sono validati e processati prima di essere caricati in un geoda-tabase realizzato con strumenti open source; le informazioni sono, inoltre, accessibili tramite un portale web GIS-oriented in funzione di una profilazione utente. Le diverse tecnologie sono state testate in alcune aree, di difficile accesso e molto estese, individuate della Regione Puglia dove sono molto frequenti i fe-nomeni di abbandono di rifiuti (Figura 1).Per queste aree i droni sembra-no essere i più indicati perchè in grado di effettuare un monito-raggio con sensori iperspettrali e termici per verificare la presenza di amianto e in grado di copri-re grandi aree in breve tempo (Bassani et al., 2007; Fiumi et al., 2014). Il test della verità a terra è stato eseguito con un Fieldspec.

Materiali e metodi -Area di studioL’area di studio è costituita dalla Gravina di Leucaspide (Comune di Statte), l’Oasi na-turale della Salina Grande di Taranto e diversi siti nell’agro-ecosistema del Comune di Capurso (Figura 2).

Gravina di LeucaspideLa Gravina di Leucaspide, mo-numentale esempio di fenome-no carsico, nasce dalla fusione di altre gravine più piccole, Amastuola e Triglie; ricca di grotte, di pareti di roccia tenera

facile da scavare, di vegeta-zione e di sorgenti (Valenza e Triglio), è particolarmente ricca di testimonianze archeologiche con la presenza di dolmen, un villaggio di età greca e nume-rosi villaggi rupestri di origine medievale (Greco, 1998). La lunghezza complessiva dell’a-rea individuata è di circa 8 km (Figura 3 e Figura 4).

Oasi Salina Grande di TarantoL’Oasi Salina Grande di Taranto (Figura 5), dichiarata riserva naturale regionale ai sensi della legge regionale n. 11/2006 è caratterizzata da un ambiente salino ricco di Salicornia ssp. (pianta erbacea nota per le sue proprietà medicinali), che da luogo ai noti salicornieti, ha-bitat litoranei influenzati dagli spruzzi di acqua marina tra i più grandi e più importanti del Mediterraneo e sud Italia al punto da essere destinatari di varie forme di protezione perché rappresentano ambienti ricchi di biodiversità e fungono da riparo e sito di nidificazio-ne, nonostante la presenza di una forte antropizzazione delle aree limitrofe, di diverse specie protette di uccelli. L’area totale della salina è di circa 8,6 km2 per una lunghezza massima di circa 6 km.

Fig. 5 – Mappa della perimetrazione dell’area test Oasi Salina Grande di Taranto.

Fig. 4 – Particolare della Gravina di Leucaspide.

28 GEOmedia n°1-2016

REPORTS

I sensori e i droniPer il raggiungimento degli obiettivi di progetto, è stata inizialmente effettuata una rico-gnizione dei diversi tipi di droni esistenti e delle loro caratteristi-che essenziali, come l’autono-mia di volo e payload di carico, sicurezza della missione, e dei sensori esistenti installabili.Le indagini sono state eseguite da due diversi tipi di droni: un quadricoptero totalmente automatizzato e leggero e un esacoptero con la struttura in fibra di nylon, carbonio e vetro. Per le operazioni di rilevamento nei siti interessati dalla presenza di qualsiasi tipo di rifiuti e per il riconoscimento di manufatti in cemento amianto sono stati uti-lizzati una camera ottica RGB, un sensore termico ed un senso-re iperspettrale aviotrasportato (Figura 6).

L’uso preliminare di una came-ra ottica RGB, ha permesso di avere una visione sinottica dello stato dell’ambiente per ricono-scere ed individuare cumuli di rifiuti non visibili e per verificare la presenza di essi in caso di segnalazione precedentemente effettuata con app. La successiva attività di caratterizzazione dei cumuli di rifiuti è stata effettuata mediante i droni precedente-mente citati, equipaggiati con camera NIR e camera termica; i voli sono stati eseguiti in giorni diversi, tutti effettuati ad una al-tezza tra i 30m e i 50m con una risoluzione di circa 1,5-2,0 cm. Il successivo impiego del sensore iperspettrale CASI-1500 della iTRES Research Ltd., installato a bordo di velivolo da telerileva-mento, ha consentito l'indagine della tipologia di materiali, me-diante l'analisi della riflessione

della radiazione solare nell'ambi-to di diverse bande strette dello spettro elettromagnetico (in totale 48). L'output di una tale acquisizione è costituito da curve di risposta, dette "firme spet-trali". La caratterizzazione dei diversi materiali avviene proprio attraverso l'analisi di tali firme.Per l’individuazione della firma dell’amianto (per la cosiddetta verità a terra) è stato utilizzato uno spettroradiometro Fieldspec 4 Hi-Res NG (Figura 7).

La videocarSi tratta di un sistema progetta-to per effettuare in movimento il rilievo con un elevato livello di accuratezza. La posizione accurata del veicolo è ottenuta, momento per momento du-rante la marcia, utilizzando tre tecnologie ridondanti: un ricevi-tore GNSS a doppia frequenza stabilisce una posizione geospa-ziale, un sistema inerziale a 6 assi, Inertial Measurement Unit (IMU) fornisce l’assetto del veicolo, e un collegamento a 2 odometri posizionati sulle ruote del veicolo consente di ottenere informazioni odometriche.La sinergia di queste tre tecno-logie fornisce una posizione 3D del veicolo estremamente pre-cisa anche in luoghi in cui i se-gnali dei satelliti possono essere bloccati da ostacoli quali edifici, ponti o file di alberi.Il sistema IP-S2 utilizzato com-prende n.3 laser scanner LiDAR

Fig. 7 – Acquisizione della firma spettrale dell’amianto per la verità a terra.

Figura 6 – Esacoptero utilizzato nelle aree test.

GEOmedia n°1-2016 29

REPORTS

ad alta risoluzione che coprono il percorso del veicolo a livello del suolo e “spazzolano” le aree adiacenti fino ad una distanza di 30 metri. E’ inoltre stata montata una multifotocamera/telecamera Ladybug-3 ad alta risoluzione, a 6 ottiche ciascuna delle quali ha risoluzione 1600x1200, che fornisce 6 immagini singole op-pure 1 immagine sferica a 360 gradi ad una velocità di 15 foto-grammi al secondo (Figura 8).

Implementazione della geo-bancadati e condivi-sione dei dati territorialiLe informazioni acquisite in seguito a validazione ed elabo-razione diventano uno strato informativo all’interno dell’in-frastruttura di dati territoriali, pubblicata su web, creata e messa a disposizione dell’Auto-rità e dei cittadini e associazioni ambientali. Facendo riferi-mento alla “gestione dei dati” (Figura 9), la piattaforma che ospita i dati è stata implementa-ta con Geonode e con l’utilizzo di software esclusivamente open source, in grado di memorizzare i dati geospaziali (PostGIS), pubblicarli (GeoServer), in standard OGC, come WMS, WFS, WCS, costruire meta-dati (GeoNetwork), cercare, esplorare e costruire mappe (GeoExplorer) il tutto inte-grato (Django) in una geoCM (Bootstrap).

Attraverso Geonode è possibile gestire gli utenti che possono caricare, ricercare e utilizzare i propri dati, con vari livelli di privacy; ad oggi rappresenta uno strumento molto efficace ed estremamente versatile e per-sonalizzabile (con un minimo di conoscenza di python) per la creazione di comunità geospa-ziali consapevoli.

Risultati e discussioneI risultati sperimentali indicano che si è sulla buona strada per la realizzazione di un sistema di monitoraggio efficace di variabili ambientali basato sull’integrazione di varie tecno-logie smart, efficienti ed a basso costo.

Lo stesso monitoraggio in ter-mini di dati acquisiti e di aree esplorate avrebbe richiesto no-tevoli risorse se realizzato con approcci tradizionali.L’identificazione della firma spettrale dei materiali conte-nenti amianto ed in particolar modo quelli contenenti amian-to in matrice friabile non è stata del tutto semplice. Di seguito si riportano le prime elabora-zioni dei valori acquisiti con il FieldSpec (Figura 10).La creazione di un archivio di firme spettrali consente l’ese-cuzione di procedure di classi-ficazione di immagini acquisite anche da drone. Sono state analizzate e confrontate diverse bande spettrali archivio di firme spettrali fino ad individuare caratteristiche particolari in termini di lunghezze d'onda e riflettanza. Applicando la clas-sificazione con le firme spettrali ricavate è stato possibile indivi-duare all’interno del territorio analizzato alcune aree critiche in cui la presenza di materiale pericoloso è altamente probabi-le (le frecce verdi in Figura 11 indicano aree dove l’amianto è stato effettivamente rinvenuto).

Fig. 8 – Sistema di acquisizione con videocar.

Fig. 9 – DroMEP data management.

30 GEOmedia n°1-2016

REPORTS

Tuttavia a causa delle condi-zioni meteo delle giornate di volo (molta umidità e copertura nuvolosa variabile) "Tuttavia a causa delle condizionimeteo delle giornate divolo (molta umidità e coperturanuvolosa variabile) sono ancora in corso idonee elaborazioni atte ad eseguire un mapping conforme delle firme sul territo-rio indagato."

Conclusioni eprospettive futureL’utilizzo di smart tecnology e la condivisione delle informazio-ni tra i vari soggetti coinvolti rappresenta un valore aggiunto verso il raggiungimento di una comunità consapevole e crescita sostenibile.La partecipazione dei cittadini e delle associazioni di volontaria-to risulta essere uno strumento efficace ed una forza motrice alle attività di controllo e moni-toraggio del territorio.La possibilità di personalizzare in base alle proprie esigenze ed integrare più smart technology produce ovviamente risultati

eccezionali. Di contro c'è il fatto che al giorno d'oggi le elaborazioni risultano alquanto complicate e necessitano, per-tanto, di personale altamente qualificato.Per quel che concerne questo aspetto, anche se ci sono me-todi standard per la pre-elabo-razione delle immagini, non ci sono classificatori di immagine che possono essere applicati in modo sistematico. Così, rimane compito impegnativo e oggetto di ricerche future, l’individua-zione ed applicazione di classi-ficatori più potenti ed efficaci con ampio spettro d’applica-zione. Inoltre le attività future

riguarderanno lo svi-luppo e l’implemen-tazione anche di algo-ritmi di localizzazione e mapping cooperativi in cui dati multi-sen-soriali acquisiti dalle piattaforme robotiche mobili, anche integra-ti con dati satellitari e aerei ove disponibili, saranno elaborati al fine di produrre rap-presentazioni multi-modali e multi-scala degli ambienti esplo-rati; in particolare, partendo dallo stato dell’arte delle tecni-che di Simultaneous Localization And Mapping (SLAM) e Structure from Motion

(SfM), la ricerca deve essere orientata allo sviluppo di nuove metodologie finalizzate al mi-glioramento dell’accuratezza sia della localizzazione dei veicoli che delle mappe da essi prodot-te. In particolare, si intendono investigare le problematiche le-gate all’integrazione ed alla co-registrazione di dati eterogenei prodotti da diversi sensori, in tempi diversi o da diversi punti di vista mediante l’impiego di algoritmi basati su features naturali come SIFT, SURF, FPFH, etc. in combinazione con tecniche di registrazione quali ICP, RANSAC, etc. Le attuali applicazioni con i droni sono ancora in fase spe-rimentale, ma ci si aspetta una rapida evoluzione tecnologica: per ottenere risultati sempre più certi è importante condurre uno studio sistematico e continuo sull’evolversi delle tecnologie e sensori di telerilevamento in condizioni molto eterogenee.

RingraziamentiQuesto progetto è stato co-finanziato dal Living Lab-ICT Apulia Innovation, un progetto della Regione Puglia per speri-mentare un nuovo approccio alla ricerca in cui i ricercatori, aziende e gruppi organizzati di cittadini, scambiano idee e conoscenze, pianificano insieme un’esperienza innovativa solu-zioni tecnologiche.

Fig. 10 – Firma spettrale di vari materiali contenenti amianto e dell’asfalto.

Fig. 11 – Individuazione di manufatti contenenti amianto.

GEOmedia n°1-2016 31

REPORTS

IL CONTRIBUTO È STATO PRESENTATO ALLA CONFERENZA NAZIONALE ASITA.

BIBLIOGRAFIAGreco A.V. (1998). “Il territorio di Statte. Dagli insediamenti rupestri alle masserie”, in Umanesimo della Pietra – Riflessioni, pp. 3-39. Bassani C., Cavalli R.M., Cavalcante F., Cuomo V., Palombo A., Pas-cucci S., Pignatti S. (2007) “Deterioration status of asbestos-cement roofing sheets assessed by analyzing hyperspectral data”. Remote Sens-ing of Environment, 109 (3), pp. 361-378Fiumi L., Congedo L., Meoni C. (2014) “Developing expeditious methodology for mapping asbestos-cement roof coverings over the territory of Lazio Region” Applied Geomatics, 6 (1), pp. 37-48.Tang L., Shao G. (2015). “Drone remote sensing for forestry research and practices”. Journal of Forestry Research, 7 p. Article in Press.Campobasso G., Massarelli C., Lopez N., Palmisano V.N., Uricchio V.F. (2014). “Il contrasto ai traffici illeciti quale forma di prevenzione della contaminazione dei territori”. Siti Contaminati. Esperienze negli interventi di risanamento. ISBN: 88-7850-014-3; Edizione CSISAUricchio V.F., Massarelli C., Lopez N., Campobasso G. (2013). “Banche dati di nuova generazione per la gestione del ciclo dell’amianto in Puglia” Atti 17a Conferenza Nazionale ASITA pagg. 1255-1264, ISBN 978-88-903132-8-8, 5–7.

PAROLE CHIAVEAPR; monitoraggio; inquinamento ambientale; tecnologie

ABSTRACTDroMEP project (Drones for Monitoring and Environmental Pro-tection) provides the definition of a smart methodology testing pro-totype technologies and operational protocols necessary for identify-ing and monitoring, both in terms of quality and quantity, the illegal dumping and uncontrolled abandonment of waste, highlighting the presence of hazardous waste, especially friable asbestos.This objective was pursued through the development, integration and deployment of innovative technologies for data acquisition: surveys with UAV equipped with multispectral sensors, infrared and thermal camera, surveys with equipped Videocar, aerial photogram-metric, hyperspectral and thermal sensors, and spectroradiometric acquisitions, acquisitions in the field by the citizens via smartphone app, were carried out.The project also included the creation of a computerized and interop-erable platform for managing and sharing integrated different spatial data.The experience has allowed, therefore, the development of a method-ology of systematic monitoring and repeatable useful for assessing the environmental quality of territories and the possible presence of risks for citizens. The information acquired, after processing, they are an excellent tool for administrators and decision makers for the evalua-tion of environmental actions to be implemented for a sustainable programming.

AUTORECarmine Massarelli [email protected]

Vito Felice [email protected]

Water Research Institute, National Research Council Via De Blasio n. 5 - 70132, Bari.

Maria Rita [email protected]

Nicola [email protected]

Servizi di Informazione Territoriale S.r.l.P.zza Papa Giovanni Paolo II, 8/1, 70015 Noci (BA).

32 GEOmedia n°1-2016

REPORTS

La storia e le tecnologieL’evoluzione, o rivoluzione internet, è cominciata un po’ prima del cosìddetto web 2.0, e comprende una lunga serie di innovazioni difficilmente esplorabili in questo articolo. Per comprendere la storia del-le mappe nell’era di internet bisognerebbe partire dalle diverse parole chiave sulle ge-otecnologie o, meglio ancora, gettando uno sguardo alla storia recente della neo-geography (https://en.wikipedia.org/wiki/Neogeography).Tra le visioni del futuro tec-nologico non bisogna inoltre tralasciare quelle di personaggi come Larry Page e Sergey Brin, fondatori di Google, che da un lato hanno contribuito a creare una rivoluzione nell’approccio facile e di massa al mondo della geografia intelligente e dall’altro hanno traghettato le scienze ge-

omatiche verso applicazioni consumer oriented.

Per molti dei profes-sionisti della geoma-

tica, Google Earth è diventato una sorta di “acceleratore geo-matico”, così come fu definito in uno degli editoriali dell’epoca (2005) sulle stesse pagine di questa rivista.Google Earth (GE) nasce infatti con lo scopo di mettere a pun-to uno strumento innovativo per la ricerca di informazioni nel web, ma assume in breve un altissimo valore-simbolo della modernità di internet. Ogni giorno milioni di utenti lo usano per navigare il globo terrestre in lungo e largo senza mai stancarsi e, cosa ancora più incredibile, senza muoversi dalla propria scrivania. Il tut-to tramite una vera e propria sensazione di “navigazione”, dovuta in massima parte ad una interfaccia innovativa e molto indovinata; navigazione che può essere fruita in 3D laddove le informazioni sono disponibili.Il modello globale implemen-tato era in sostanza basato sul DTM mondiale rilevato durante la missione SRTM

Il mondo della geografia intelligente,

ovvero le diverse applicazioni che

negli ultimi dieci anni hanno portato

la geografia digitale e il mondo delle

informazioni geospaziali verso il

mercato consumer, è rappresentato

da tre dei competitors del settore

informatico e della nuova era

dell`ICT: Google, Microsoft e

Apple. Quest'ultima ha rilasciato

il sistema MAPPE da non più di

quattro anni (2012)1, dapprima

sulla sola piattaforma iOS (iPad

e iPhone) e in seguito sul suo OS

desktop, Mavericks. È proprio da

allora che Mappe, fornito di default,

rappresenta la vera rivoluzione

nel campo del Geospatial 3D per

il mercato consumer, un mercato

potenzialmente infinito, composto

dai miliardi di utenti che usano

smartphone, tablet o PC.

La guerra delle mappe continua

ancora oggi, anche se il mondo della

geomatica sembra non accorgersene.

Con questa nota cercheremo di fare

il punto sui sistemi, le soluzioni, la

storia recente.

di Domenico Santarsiero

Geograf ia in te l l igentee user exper ience

Lotta a due tra Google e Apple nel mondo

delle informazioni geospaziali per tutti

NOTA1) A questo url il docu-

mento di riferimento per capire cosa contiene il

DB Geospaziale mondiale Mappe di Apple. http://

gspe21.ls.apple.com/html/attribution-12.html.

Fig.1 - L'interfaccia di Apple e Google partono tutte e due dal globo terrestre.

GEOmedia n°1-2016 33

REPORTS

dello Shuttle (2000), mentre le informazioni geospaziali erano un mix di immagini ae-ree, satellitari e di cartografie digitali comprate dai diversi player globali e locali, poi messe insieme attraverso processi di georeferenziazione che, certa-mente, non potevano essere scientificamente rigorosi data la provenienza spesso incerta dei dati e data l’impossibilità reale di fare un lavoro tecnicamente corretto. Ma il risultato fu più che eccezionale, e nel giro di 6/12 mesi tutti gli operatori di piattaforme GIS, anche tra quelle più blasonate come ESRI, Intergraph, Bentley e Autodesk, presi alla sprovvista, si dovettero adeguare a questo nuovo modo di accedere ai dati geografici (non citiamo qui uno dei primi sistemi che univa le potenzialità della navigazione virtuale del dato geografico, e della interfaccia globale. Questo sistema anticipava tutte le solu-zioni oggi disponibili sul mer-cato. Si chiamava Virtual GIS ed era una soluzione targata ERDAS).Nasce così un nuovo modo di presentare le informazioni terri-toriali, globali e geografiche. Si parte dalla sfera della terra e si arriva alle proprie informazioni con un semplice tocco del mou-se. Si modifica il livello di zoom e ci si addentra sempre più in dettaglio nelle informazioni car-tografiche tradizionali o 3D.Per gli utenti di internet è una vera e propria manna dal cielo: dalla visione generale, o meglio

globale, visto che si parla del globo terrestre, fino alla naviga-zione pseudo 3D di street view, la così detta “user experience” (esperienza dell’utente, emozio-ne, e come egli vive l’interfaccia, e quindi i dati), rappresenta una novità assoluta e rivoluzionaria nel rapporto con la geografia e quindi con il mondo reale delle immagini geospaziali.

Gli attori e i datiNell’era di internet, pian piano, le informazioni geografiche, to-pografiche, geospaziali e dei ge-ospatial imaging data set, diven-tano la pelle del web avanzato dove cercare informazioni utili, pianificare il proprio viaggio oppure navigare in un mondo lontano, riprodotto con incre-dibile fedeltà, pur rimanendo seduti sul proprio divano.Territori, nazioni e vita quoti-diana, luoghi che normalmente percorriamo nelle nostre più co-muni giornate, nell’arco di 5 o 6 anni sono divenute accessibili on-line: basta seguire l’omino in basso a destra e portarlo sulla mappa al solo costo di un click di mouse, e il nostro luogo è lì, visibile a 360 gradi, navigabile, fruibile e immediato. Anche se in questo contesto le tecnologie geomatiche hanno un ruolo assai marginale, lasciando la sce-na alle innovazioni apportate nell’analisi delle immagini, si tratta comunque di un enorme passo in avanti che ha di fatto definito un nuovo paradigma (un cambio di paradigma fon-damentale, e forse oseremmo

dire globale, lo si ha nel 2012, con la disponibilità di Android 4.2 (Jelly Bean), che introduce a livello consumer il sistema Photo Sphere. Un approccio alla realtà completamento imaging. Riportando indietro le lancette ai primi sistemi di Apple per fare foto sferiche, ma mai decollati).È poi vero che, l’interfaccia utilizzata, è del tutto geografica “<<avanti - indietro - destra - sinistra - alto - basso>>”, anche se in linea di massima si parte dalla mappa per arrivare ad uno

OSM - STORIA BREVE E RIFERIMENTI

Questo libro raccoglie diverse interviste alle perso-ne che collaboravano o erano parte del team che ha fatto partire il progetto OSM. Il suo scopo è quello di fornire un variegato punto di vista sull’ar-co del progetto che va all’incirca dal 2004 al 2014.Dato che intervistare tutti sarebbe stato impossibi-le si è cercato di raccogliere la testimonianza delle persone più presenti e importanti per il progetto. Quello che troverete nel testo, sono frammenti storici, aneddoti e punti di vista su un progetto audace: La mappa del mondo realizzata attraverso il solo contributo di volontari che hanno fornito gratuitamente il loro lavoro e i loro dati. Qualcosa che poteva sembrare incomprensibile un po di anni fa."Il libro è invece stato pensato come un volume “as it is”, ovvero senza tante revisioni e con interviste dirette ai protagonisti di questa rivoluzione nelle mappe, e senza mettere in particolare evidenza persone o episodi, cosi come il genio creativo di Steve.Ogni sezione comprende, oltre all’intervista, una breve biografia dell’interlocutore ed una citazione sulla mappa preferita. Il testo ha spesso passaggi ironici, ma il lavoro è stato tedioso e lungo. Il volu-me è stato realizzato ricorrendo al crowdfounding di Kickstarter, e ha raccolto poco meno di 10 mila dollari in poco tempo. Tutte le interviste sono state condotte da Steve Coast, mentre il progetto è stato gestito da Ben Wroe e curato da Barbara Poore.

34 GEOmedia n°1-2016

REPORTS

stadio di “navigazione nelle in-formazioni”, in questo specifico caso le immagini, non essendoci ancora un adeguato frame geo-metrico 3D della realtà.La battaglia è chiaramente tra i big della “soft economy”, ovvero della nuova era digitale, e quin-di tra i soliti noti come Google, Microsoft e Apple, una vera e proprio triade con ruoli e visio-ni completamente diverse, insite nel DNA delle aziende stesse.Di fatto Google la fa da padro-ne, essendo l’unica azienda che è riuscita ad imporre la sua vi-sione delle informazioni geospa-ziali , utilizzate nel più ampio processo della digitalizzazione del mondo conosciuto.A differenza di Microsoft e

Apple, che rimangono azien-de caratterizzate dai prodotti hardware, Google ha saputo valorizzare appieno il suo DNA di azienda completamente “web oriented”, promuovendo la vera innovazione nel settore che le è più congeniale.E infatti, nonostante un DNA al 100% IT, prima Microsoft e poi Apple, hanno dovuto pie-garsi alla potenza comunicativa e commerciale delle informazio-ni geografiche e geospaziali.Microsoft già in tempi non sospetti, ovvero nel 2008, co-minciò ad investire nel settore della fotogrammetria, e sulla scia di GE cominciò a valoriz-zare il suo asset di informazioni geospaziali, divenute ormai corpo integrante del suo motore di ricerca BING. Aprì addi-rittura la divisione Microsoft Photogrammetry, attraverso l’acquisizione di Vexcel che produce una delle camere foto-grammetriche tra le più diffuse e, ovviamente, software adegua-ti alla gestione dei dati. Oggi l’offerta di Microsoft è

orientata al mondo enterprise at-traverso la soluzione Bing Maps Platform, innestata sul corporate web di microsoft all’url http://www.microsoft.com/maps/.Apple è forse quella che è ar-rivata per ultima sul mercato delle geoinformazioni diffuse anche se da sempre è quella che ha prestato più attenzione verso il mercato consumer in termini di mobile applications & positio-ning. Da ultima ha quindi cer-cato di acquisire il meglio delle tecnologie e dei dati disponibili, ed in parte ci è riuscita. I dati geospaziali sono infatti gli stessi di BING, avendo realizzato una transazione globale.

La storia breve delle aziende

� Google - la storia di google la possiamo semplicemente leg-gere su wikipedia, cosi come quella della nascita della serie Earth e Map, le applicazioni geografiche o geospatial di google. Tutto ha inizio con l’acquisizione della Keyhole nel 2004, che stava lavorando alla

WWW.MYGEO.IT/MAPPE-PER-2

8 agosto 2015, caldo torrido a Roma. Il caso ha voluto che nel giro di un’oretta abbia incrociato

due segni premonitori che mi hanno convinto a confermare il titolo di questo articolo.

Per primo ho incontrato il sistema MMS targato APPLE: un furgone nero con targa tedesca,

attrezzato con sistemi a 360° ai 4 angoli (laser scanner, probabilmente dei velodyne a giudicare dalle dimensioni ridotte) e camere fotografiche. E dopo venti minuti, nella stessa zona, si mate-

rializza improvvisamente davanti a me la Google Car, dotata del sistema di ripresa impiegato per

street view.La mia conclusione è stata una sola: ho fatto

BING, è giunta l’ora di chiudere il mio articolo.

GEOmedia n°1-2016 35

REPORTS

implementazione di XML nel mondo delle informazioni geo-grafiche sul web. Siamo insom-ma alla nascita dello standard KML, che deriva proprio da Keyhole Markup Language, lo standard Google per le mappe e non solo. Google mette a disposizione un esteso set di servizi, accesso ai dati e tools geografici per terze parti.

� � Apple map - il mondo delle mappe per Apple inizia con il 2007, come documentato nelle note, ma inizia subito con ser-vizi e modalità avanzate come il 3D. Generato non già come frame GML che fu usato da Google all’epoca di SketchUp prima versione, bensì puntan-do subito al 3D di nuova ge-nerazione, quello generato “on the fly”, che vediamo nel box a destra. Ma Apple fa di più, e entra nel mondo della naviga-zione indoor, che è il prodromo del mapping globale che si estende alle mappe 3D del futuro, vicinissimo al mondo dei 3D City Models. Compare quindi nell’era della neogeogra-fia, il primo standard iBeacon2, rilasciato a partire da iOS7.

� �

� Microsoft - entra nel settore della fotogrammetria e delle informazioni geospaziali con l’acquisizione di Vexel, che poi si mimetizza tra le mille company dell’area Microsoft, la cui parte hardware migra in Ultracam, leader insieme a pochi altri, nel mercato delle camere fotogrammetriche ae-ree di fascia high end. Nasce cosi l’interesse per il progetto Virtual_Earth, da cui deriva il progetto master BING Map3, e sue successive evoluzioni. Bing si arricchisce poi del database principale realizzato con i dati Pictometry4 rilevati da Blom ASA, una delle aziende più im-portanti nel campo del rilievo di immagini aeree finalizzate a popolare i DB Geospaziali di Microsoft e non solo. In Italia Blom ha partecipato alle av-venture di una delle nostre più importanti aziende del settore, come la CGR di Parma. Infine ’acquisizione di Nokia, ha portato a Microsoft l’eridità di Navtech, confluita poi in Here.

� � Open Street Map (OSM) - è il fenomeno più importante nel campo della cartografia globale della mobilità, ma anche delle tecnologie collaborative. Open Street Map nasce da un’idea di un geniale inglese, Steve Coast, che nel 2004 viveva tra l’inghil-terra e San Francisco. Il progetto OSM è uno dei primi progetti che mette insieme il concetto di crowd e di mapping, dando vita al più grande progetto carto-grafico su scala mondiale, di un nuovo approccio che anticipa il paradigma del mondo crowd, open e di geografia digitale di nuova generazione. Questa bellissima esperienza è raccon-tata nel volume da poco date alle stampe, e finanziato anche lui attraverso crowdfunding di Kikstarter, a cui chi scrive ha contribuito come sostenitore.

3D MESH OTF - MATEMATICA E POTENZA DI CALCOLO PER I BIG DELLE MAPPE “ADVANCED”

Il processo di renderizzazione delle immagini oblique impiegate sui sistemi Google Map e Maps di Apple, rappresenta l’ultima sfida che si sta te-nendo tra i due player più importanti. Di fatto i due sistemi funzionano in maniera un po’ diversa, e i risultati finali lo dimostrano. Sulla piattaforma Apple è tutto un po più fluido, soprattutto se si parla dell’hardware di Cupertino (mac, ipad e iphone). La piattaforma map o earth di Google ha una velocità di rendering simile a quella di Apple, ma a volte sembra meno precisa e il risul-tato finale è spesso più brutto. Complessivamente però, il mondo del 3D di Google non ha ancora trovato nessun competitor alla sua altezza, soprat-tutto nell’ambito del 3D vero dei frame geometri-ci, che anticipano tutto il mondo che verrà delle 3D City, di cui un bello esempio è il consorzio allargato per i 3D City Models che trovate a que-sto URL: http://www.cybercity3d.com.

NOTA2) La tecnologia iBeacon è stata brevettata da Apple, anche se fa parte del trend tecnologico legato al mondo della localizzazione di prossimità, che deriva in parte dal mondo dell’RFID, e quindi di ciò che chiamiamo comunemente anche indoor positioning. Su questa scia diverse sono le aziende che operano già nel settore, sia implementando la tecnologia BLE che altre basate comunque su tecniche wireless.

Il rendering OTF di apple e google.

Diverse visualizzazioni di mappe di apple. Notare la griglia di riferimento e la fase iniziale del rendering.

36 GEOmedia n°1-2016

REPORTS

� Tom Tom - la storia di TomTom inizia con le prime applicazioni GPS based + Mapping, e vie-ne promosso all’inizio da Tele Atlas (la prima recensione del prodotto in Italia, è degli anni ‘90). Agli albori non è altro che un navigatore che integra GPS e dati GIS, con algoritmi di calcolo dei percorsi e poche altre cose. La storia è poi cam-biata radicalmente e Tom Tom, una volta quotata in borsa, ha avuto la forza di acquisire le sue stesse ceneri, ovvero le informazioni geografiche di Tele Altlas, a cui in parte deve la sua nascita. Tom Tom figura oggi tra i più grandi fornitori di mappe al mondo. Sia per i portali web, sia per molteplici navigatori da auto o portatili.

� � Gli altri - L’evoluzione delle informazioni geografiche ver-so il mondo digitale, come è ovvio, non inizia con i grandi player del momento, ma con una miriade di altre aziende ancora operative, o acquisite ed inglobate nell›ambito di altri progetti. Tele Altlas, ormai parte di TomTom, che fu la prima azienda a promuove le

mappe al servizio della mobi-lità. Navtech, confluita poi in Nokia nel 2011, è stata un’altra delle aziende leader, ma non possiamo non citarne altre come Michelen (www.miche-len.fr), o il tentativo italiano di DeAgostini, anche se di fatto mai pienamente decollato, e che 20 anni dopo è finalmente migrata, come spin-off, nella produzione di mappe per lo spazio e non solo (www.geo-4map.it). Al contrario di Here (www.here.com), azienda della galas-sia Nokia, che aveva l’ambizio-so programma di digitalizzare il mondo tramite il laser scanner, ma che poi nel 2015 è stata venduta ad un corsorzio di pro-duttori di auto, in vista delle tecnologie alla base delle mac-chine elettriche, automatiche e always connect, ma sempre attenta alle mappe, alla localiz-zazione e al sensing. Diverse sono le aziende che non cito, come la galassia USA dove tra le prime troviamo MapQuest, che compie 20 anni proprio nel 2016, e altre ancora che operano negli USA da diversi decenni.

� Alla stessa maniera merita una citazione il più antico motore di ricerca, Yahoo, che ha attivo da molti anni il suo yahoo maps. Per una pano-ramica completa dei servizi WMS (Web Map Service), o anche per un inventario delle risorse on-line, non rimane che puntare il mouse su al-cune risorse wikipedia come: https://en.wikipedia.org/wiki/Web_Map_Service e https://en.wikipedia.org/wiki/List_of_online_map_services.

ConclusioniQuesto breve articolo ha preso forma circa 2 anni fa, ma solo ora esce compiuto e pronto per le stampe. Nel frattempo le innovazioni intervenute sono tante, sia per le grandi socie-tà, come hanno dimostrato le svolte 3D di Google Map e del Maps di Apple , sia per le innu-merevoli innovazioni che hanno coinvolto il mondo della geo-grafia diffusa, che nel prossimo futuro sarà sempre più presente nella quotidianeità, arrivando a permeare tutti gli strati della nostra società.

NOTE3) http://en.m.wikipedia.org/wiki/

Bing_Maps_Platform.4) Pictometry è una tecnica e un

prodotto della EagleView, che consiste nel rilievo e impiego di immagini obligue nella realizzazione di foto aeree, e da esse vengono generate oggi i modelli 3D on the fly sui sistemi maps di Apple, e in

mille altri progetti e sistemi. L’approccio pictometry alla fotogrammetria, ha rap-presentato una vera svolta epocale per il mondo delle informazioni geospaziali.

I prodotti fotogrammetrici Ultracam di Microsoft Photo-

grammetry.

La info di Mappe v 2.0 di Apple.

GEOmedia n°1-2016 37

REPORTS

BIBLIOGRAFIA- The KML Handbook. A cura di Josie Wernecke. Addison-Wesley

2009. ISBN-13: 978-0-321-52559-8. - annate GEOmedia 1997-2015 www.geomediaonline.it- Introduction to Neogeography. Andrew J.Turner. O’Reilly

Media 2006. ISBN: 978-0-597-52995-6- Info e altro (Copyright © 2012-2015 Apple Inc. ) sul prodotto

e sui contenuti di MAP http://gspe21.ls.apple.com/html/attri-bution-12.html. I disclaimer o le citation sono all’incirca 135 righe, comprendendo in questo tutto o quasi, a cominciare da TomTom, passando per Digital Globe, e finendo con i vari DOT americani (department of Transportation).

- Su wikipedia un ottimo punto di partenza per la storia della Bing Maps Platform di Microsoft. http://en.m.wikipedia.org/wiki/Bing_Maps_Platform

- un po di storia http://en.wikipedia.org/wiki/Google_Earth. Qui le informazioni per seguire i vari gruppi di lavoro sul mondo della geografia di nuova generazione. Google Earth compresa.

- una ottima risorsa per sviluppatori web e entusiasti neo-geografi. A cura di Konstantin Delchev. http://www.slideshare.net/kdel-chev/maps-29138951?related=2.

- ecco gli strumenti di Google Earth Outreach. Ben 10 applica-zioni per scoprire come gli strumenti Google per la creazione di mappe possono aiutarti a cambiare il mondo. Earth, Earth Engine, My Maps, Tour Builder, Open Data Kit, Google Fusion Tables, Google Map Maker, Google Maps API, Google Street View, Spreadsheet Mapper.

- http://www.google.com/earth/outreach/tools/index.html- Primo portale italiano a promuovere le tecnologie Beacon Based

in termini di device e non solo. http://www.beaconitaly.it- http://www.viamichelin.com, uno dei primi portali geografici di

supporto al mercato consumer e della mobilità.- Anche se del 2012, questo è un ottimo post per capire come la

geografia di google cambierà il futuro. http://www.theatlantic.com/technology/archive/2012/09/how-google-builds-its-maps-and-what-it-means-for-the-future-of-everything/261913/

- 4 agosto 98 - sul numero 21 di The Search Engine Report viene recensito per la prima volta il motore di ricerca Google, che pun-tava al dominio di terzo livello dell’università di Stanford http://google.stanford.edu/.

- questa la time line ufficiale di google http://www.google.com/about/company/history/

- MapQuest è un’azienda USA del settore cartografico tra le più vecchie. Acquisita nel 2000 da American Online, ha stretto poi nel 2007 una partnership importante con General Motors.

PAROLE CHIAVEGeografia intelligente, Google, Apple, Neogeografia, TomTom, Street View.

ABSTRACTThe world of intelligent geography, namely the different applications in the past decade have brought digital geography and the world of geospa-tial information to the consumer market, is represented by three of the competitors in the computer industry and the new era dell`ICT: Google, Microsoft and Apple. The latter has released the MAPS system within the last four years (2012), firstonly on the iOS platform (iPhone and iPad) and later on its desktop OS, Mavericks. It is from then that MAPS, provided by default, represents the real revolution in the field of 3D Geospatial for the consumer mar-ket, a potentially infinite market, composed of billions of people who use smartphone, tablet or PC.The war of the maps still continues, even though the world of geomatics seems not to notice.

[email protected]

38 GEOmedia n°1-2016

GUEST

by Vyron Antoniou

VOLUNTEERED GEOGRAPHIC INFORMATION

MEASURING QUALITY, UNDERSTANDING THE VALUE

The birth of VGI In 2007, Mike Goodchild coined the term Volunteered Geographic Information (VGI). He was describing “the widespread enga-gement of large numbers of private citizens, often with little in the way of formal qualifications, in the creation of geographic information” (Goodchild, 2007: p.217). Many mark the birth of VGI with the birth of OpenStreetMap (OSM – www.openstreetmap.org) in 2004. While OSM has played a key role in the development of the phenomenon, the fact is that the crowdsourced and collaborative creation of spatial content was not something new.

The creation of VGI was sparked by a mixture of a different factors and it is difficult to understand the quality aspect of VGI without first examining the factors that lead to the appearance of this phenomenon. It is interesting to realise who these factors are, not only because some of them are new to the Geomatics domain and thus the professionals of Geographic Information (GI) need to extend their horizons so to study and understand them, but also because these factors are still the driving force behind the evolution of VGI. Thus, we need to have a clear view of their im-portance and role if we want to understand how VGI is evolving and what the quality caveats that come with it are. One of them is the mentality of collaboration in order to achie-ve a goal. VGI mimicked, in a sense, the mechanisms of Open Source Software where a team of, otherwise unrelated, programmers joined forces to create a free and open piece of software. In the case of OSM for example, the equi-

valent was to create an open and free map of the world. This col-laboration was further facilitated by: i) the proliferation of accurate and low cost GPS-enabled devices which turned technology savvy people into “neo-geographers” (Turner 2006) and citizen-sensors (Goodchild 2007), and ii) no-vel programming techniques which transformed Web into a bi-directional medium regarding content creation. Moreover, the turn to spatial applications, which were freely accessible to the public, by the technology giants (e.g. Google, Microsoft, Yahoo!) drew the attention around spatial data and applications. On the other hand, however, the National Mapping Agencies (NMAs) were, in effect, keeping Spatial Data Infrastructures (SDI) out of the reach of the general public with high pricing and complicated licensing terms. The intertwining of all these factors contributed to the appearance and the deve-lopment of the VGI phenome-non. What has not been clearly stated as a contributing factor, but

Fig. 1 – Adding data to OSM after mapping Brighton Pier. (Source: https://en.wikipedia.org/ Author: Alexander Kachkaev).

The article explores the world

of Volunteered Geographic

Information from birth until today,

observing the actors, the sources

and the problems inherent the data

quality according to ISO standards.

The author underline the potential

of this social phenomenon in

constant evolution and the impact

this could have, in the very near

future, in the various fields of

geospatial information.

GEOmedia n°1-2016 39

GUEST

yet exists and affects VGI, is the social component. VGI, before and above all, is a social phenome-non and this factor will be further analysed when we turn the discus-sion to VGI quality.

Types and Sources of VGIToday VGI is omnipresent. It comes from various sources and it can be found in many flavours including toponyms, GPS tracks, geo-tagged photos, synchronous micro-blogging, social networking applications, blogs, sensor mea-surements, complete topographic maps, etc. Topographic VGI can come as a result of field work or bulk data import of authoritative datasets that are now freely avai-lable. It is obvious that all these sources cannot just fall under one category. There are many aspects that can be examined here, but of particular interest when we exami-ne the sources and types of VGI is the focus, the origin, the moti-vation and the scope of the VGI contributors; in a sense if they are generating VGI in an implicit or explicit manner and in what con-text. Implicit contribution takes place via websites or applications where their main focus is on acti-vities not related to the geospatial domain. This does not preclude the presence of a geospatial aspect as one of the many interesting features that such applications could have but spatial information is neither one of the core features nor the main motivation of their contributors. Often, contributors are not aware of the fact that their digital presence leaves also a spatial footprint. On the other hand, spatially explicit sources, urge their users to use geography and location as a motivational and organisational factor. The narrati-ve behind these sources asks con-tributors to interact directly with spatial features and consciously fo-cus their attention into capturing spatial elements.

This is because a product might adhere to the existing specifi-cations but fails to fulfil requi-rements. In quality terms, this product has high internal quality (i.e. is produced according to spe-cifications), but it has poor exter-nal quality (i.e. it does not fulfil its purpose). Again, this is the case also with spatial data. In other words, the fact that a VGI dataset (implicitly or explicitly created) is created according to some initial specifications does not necessarily mean that it can be used to cover all or any requirements stated by potential end-users.Spatial data quality has long been an interesting topic for academics and GI professionals alike. There are obvious reasons for that. GI is the basic ingredient for all map-ping and geo-spatial products and applications. If this ingredient is of poor quality, it just dooms any other effort. This explains the spe-cial interest shown by NMAs and corporations for the standardiza-tion of the terms and procedures used in spatial data quality evalua-tion. A prime example towards this end is the specifications issued by the International Standards Organization (ISO) and the Technical Committee 211 (ISO/TC211) responsible for the ge-ographic data. In 2013, a new international standard was issued, ISO 19157 (ISO, 2013), which provides a holistic approach for spatial data quality (see fig. 2).

Both the source and the type of VGI play a role in the quality and value of VGI. However, before turning to this, we briefly review the basics of spatial data quality.

Spatial Data QualityIn general, according to ISO 9000 (ISO 2005), quality is the “degree to which a set of inherent characteristics fulfils requirements”. Characteristics (or quality ele-ments) are defined as distingui-shing features of a product that can be either inherent or assigned, and can be either qualitative or quantitative. Requirement is de-fined as a need or an expectation that is stated, obligatory or gene-rally implied. Thus, understan-ding and measuring quality boils down to defining the elements of a product and how these elements serve the usages expected; in one word: fitness-for-purpose. While this might seem as oversimplifica-tion, it is not. Most of the times it is very difficult to analyse and measure correctly these inherent characteristics, and the same ap-plies in unequivocally defining the requirements to be met. Spatial data is no different and the same rules, and problems, apply when it comes to understanding and measuring spatial data quality; either quality pertains to authori-tative data or VGI.The discussion about quality be-comes even more intriguing when product specifications are inclu-ded in the equation.

Fig.2 - The scope of ISO 19157 international standard.

40 GEOmedia n°1-2016

GUEST

Spatial Data QualityElements When it comes to the evaluation of spatial data quality, a basic component is the characteristics or elements that compose this quality. These elements are fac-tors that can be measured and the conformance of a dataset can be documented and reported to any interesting party. Thus, spatial data quality elements provide a tangible façade of a dataset’s quality, irrespectively of whether it is an authoritative or VGI one. First the understanding and then the assessment of these elements is fundamental when it comes to measuring GI quality. A brief description is provided (ISO, 2013): i) Completeness, refers to the presence or absence of features, their attributes and relationships compared to the product’s specification; ii) Logical consistency, refers the degree of adherence to logical rules of data structure, attribution and relationships as described in pro-duct’s specifications; iii) Positional accuracy, refers to the accuracy of the position of features within a spatial reference system; iv) Thematic accuracy, refers to the accuracy of quantitative attribu-tes and the correctness of non-quantitative attributes and of the classifications of features and their relationships; v) Temporal quality, refers to the quality of the temporal attributes and tempo-ral relationships of features; vi)

Usability, refers to how a given dataset can meet specific user requirements that cannot be de-scribed using the quality elements described above.All the spatial quality elements (with the exception of Usability) can be further analysed into quality sub-elements so to better assess and measure the quality of a dataset.

Why this is not enough for VGIThe framework suggested by ISO, and now followed by many authoritative sources of GI, has been rigorously developed by the Geomatics community, and is serving very well the efforts to provide a tangible description of GI quality. However, these guide-lines have been developed in a to-tally different context compared to what we face today. Quality evaluation guidelines have been created for authoritative datasets. Authoritative datasets come from an ecosystem composed of trai-ned personnel that follow tested protocols and procedures, rigor product specifications, certified equipment and software, organi-zational structures and processes that work towards a high quality result, multiple quality control levels, and of course the absence of social, spatial or other biases as most of the authoritative data come from NMAs. For this kind of data, ISO standards (or similar quality evaluation procedures) will continue to be the basic re-ference point. What is not clear, however, is how to handle VGI data. First, the evaluation process cannot easily be implemented. Evaluating VGI against a referen-ce dataset (i.e. authoritative data) is not always possible, due to li-mited data availability, contradic-tory licensing restrictions or high procurement costs of the authori-tative data. Moreover, internal or external quality cannot be easily assessed as the wiki-based nature

of VGI data results in the absence of data specifications (Antoniou, 2011). Then it is the nature of VGI which paints a completely different picture from the one described earlier. In this front, the first element to consider is bia-ses, both social and spatial ones: knowledge of language, users’ available time, their technical capability, origin or cultural dif-ferences are all factors that intro-duce subtle or important biases in VGI datasets. Then is the digital divide that should make us very careful about the coverage and re-presentativeness of the data that is being collected. A third element is the GI itself: lack of metadata, heterogeneity, patch work and fragmented contributions should be expected when using VGI. This includes also high volatility as frequent changes made by con-tributors in important attributes can deteriorate the overall quality and the usability of VGI datasets.

New methods for quality measures in VGIIn this context, researchers need to explore ways to determine VGI quality using existing me-thods and, in parallel, find new ways that will suit better the na-ture of VGI. The former group of efforts includes efforts that adapt the existing measures of spatial quality elements, discus-sed above, to VGI datasets. The latter refers mainly to research aiming to reveal intrinsic to VGI quality indicators, sometimes new to Geomatics domain, so to facilitate the understanding of such data. Here, we turn our focus to the novel evaluation efforts that use intrinsic VGI quality indicators. These indica-tors can be grouped in four dif-ferent groups: i) data indicators, ii) demographic indicators, iii) socio-economic indicators and iv) indicators about contributors (Antoniou and Skopeliti 2015).Fig. 3 – Motion X GPS and OSM. (Source: https://

en.wikipedia.org/ Author: Harry Wood).

GEOmedia n°1-2016 41

GUEST

TEOREMA srl MILANO:

SOLUZIONI INNOVATIVEPER LA TOPOGRAFIA ELA TERMOGRAFIA “IR”Dal 1986 Teorema srl lavora a fianco del professionistafornendo la tecnologia più avanzata, la migliore formazione tecnica ed una accurata assistenza post-vendita per rendere affidabile e produttivo il vostro lavoro.

@

Leica HDS P30 / P40 Leica CS35 Rugged Tablet

Leica Disto S910

Leica Nova MS60 Ricevitore GNSS GS14

Termocamera Flir T420

Leica Serie Captivate

Leica 3D Disto

42 GEOmedia n°1-2016

GUEST

Data Indicators. The direct quali-ty evaluation can be problematic for VGI. This is because usually there are no detailed specifica-tions or the evaluation against authoritative data might not be possible, not least because there is no access to reference data. Hence, the focus is on indicators that could reveal VGI quality by solely examining VGI data. Such indicators include features’ length and point density in a square-based grids or feature-level attributes such as the number of versions, the stability against changes and the corrections and rollbacks of features, the prove-nance of contributed features

Demographic Indicators.As VGI is user generated con-tent, it is expected that a corre-lation between data quality and demographic data might exist. Empirical studies revealed the correlation between the demo-graphics of an area and the com-pleteness and positional accuracy of the data. Also, it has been shown that the low population density areas (i.e. rural areas) ne-gatively affect the completeness of VGI data. On the contrary, population density positively correlates with the number of contributions, thus affecting data completeness or positional accu-racy (see for example Zielstra and Zipf, 2010; Haklay et al, 2010).

Socio-economic Indicators. Closely related to the demo-graphics is the existing socio-economic factors. The grassroots engineering and the bottom-up process of VGI turned the re-search focus in socio-economic factors and indeed, it has been shown that social deprivation and the underlying socio-economic reality of an area con-siderably affects completeness and positional accuracy (Haklay et al, 2010; Antoniou, 2011). Similarly, other factors such as high income and low population age result into a higher number of contributions, a positive fac-tor of VGI quality (Girres and Touya 2010).

Contributors’ Indicators.This group of indicators focuses on revealing the contributor’s motivation drivers as this can give a better insight into user generated data. To this end, quality indicators can include the history and the profiling of contributors or the experience, recognition and local knowledge of the individual (Van Exel et al., 2010). Moreover, the number of contributors on certain areas or features has been examined and it has been positively correlated with data completeness and positional accuracy (Keßler and Groot, 2013). VGI is a new development for the Geomatics domain. As such, some of the existing tools used so far for the quality evaluation of GI can be applicable here as well. However, is evident that the very nature of VGI imposes a broader thinking of how to be more inclusive so to better analyse the quality of VGI da-taset. As there are still ongoing efforts to build a solid framework that will efficiently assess VGI quali-ty, there is active research around novel quality indicators.

Understanding VGI valueWhen we solely focus on mea-suring the quality of VGI data, we run the risk of missing the bigger picture that this pheno-menon paints: the true value of VGI. Before VGI, spatial data was a privilege in the hands of governments or few corporations. Datasets where stored in silos and the vision of functional and public-serving SDIs was stran-gling to stay alive. What VGI did was to introduce geography to the general public, increase awareness of its value and conse-quently the demand for up-to-date spatial products; in a sense VGI managed to spatially enable our societies. Moreover, VGI sparked the creation of a virtuous circle around the linkage between society and spatial information. The technological advances faci-litated spatial data collection and online diffusion, and this made people familiar with spatial con-tent, cartographic products and location based services. This in turn, created the need for more, freely available, spatial content of high quality and thus VGI sources were better placed to cover this need resulting to more crowdsourced spatial content to become available on the Web. This positive spiral was also fuelled by the intrinsic characte-ristics of VGI data. First, is the fact that now we can record how people value and understand space. Now, for the first time, the user’s perception of space is tangible through the volunteered recording of spatial features or phenomena they consider impor-tant to have on a map. Moreover, as daily life is local by its nature, VGI supports the recording of issues that range from health to entertainment, to education, or other local-scale activities. Closely related to this is the fact that VGI encapsulates the local knowledge that contributors have. Following

Fig. 4 – OpenStreetMap GPS trace density. (Source: https://en.wikipedia.org/ Author: Eric Fischer).

GEOmedia n°1-2016 43

GUEST

IL VOSTRO PROSSIMO LAVORO?TRASFORMIAMOLO INSIEME IN UN SUCCESSO

Trimble è leader mondiale nella produzione di soluzioni tecnologicamente avanzate per l’acquisizione e il trattamento di dati spaziali 3D.In qualsiasi scenario vi troviate a operare esiste una soluzione Trimble pensata espressamente per voi; vi garantiamo un’esperienza di utilizzo unica, dall’acquisizione, all’elaborazione fino alla restituzione del dato, in un unico ambiente operativo.Per essere ancora più vicina ai professionisti italiani, Trimble ha acquisito Spektra, azienda storica nel mondo degli strumenti di misura, per farne il suo distributore unico, per quanto concerne i settori dell’ingegneria, del monitoraggio ambientale e strutturale e del rilievo in ambito ferroviaro.

È nata così una realtà nuova, fatta di persone appassionate e competenti, pronte ad affiancarvi, e di servizi pensati su misura per le vostre esigenze.Trimble Service: lasciate che siano i nostri tecnici specializzati a prendersi cura della vostra strumentazione in caso di manutenzione ordinaria e straordinaria.Trimble Remote Assistance: avete bisogno di supporto? Interveniamo da remoto o direttamente in cantiere con la nostra squadra di tecnici specialisti.Trimble Rent: potrete avere tutto la tecnologia di Trimble, solo quando vi serve. Anche per un giorno.

È ora di cominciare a lavorare insieme.

Spektra Srl, a Trimble Company039.625051 | [email protected] | www.trimble-italia.it

TRANSFORMING THE WAY THE WORLD WORKS

44 GEOmedia n°1-2016

GUEST

Tobler’s law which states that “everything is related to everything else but near things are more related than distant things” (Tobler, 1970: 234) it is not strange that contri-butions in VGI tend to be more accurate in places the contributor knows best. Another issue is the extended field of scope. While VGI become mostly known from a handful of champion projects such as OpenStreetMap, Wikimapia and Geonames, examples include also data ga-thering for air pollution, urban noise, traffic and congestion maps, cycle maps, gpx-trail maps or soil mapping. Most of these topics were usually under the radar of the NMAs as their focus was on few well defined mapping products. This leads to the fact that now we can open our hori-zons to new geospatial products and applications. Examples can be found in the field of urban sensing and smart cities. Today, with ubiquitous sensor networks our living environments are being transformed into smart cities where the flow of VGI in terms of volume and currency opens the opportunity to monitor and understand, in an unprecedented way, what exactly takes place in every corner of the urban fa-bric. Apart from new products, VGI can also play an important role in correcting, enriching, and updating existing datasets. Furthermore, VGI shortens the time horizons of geographic data update as in most cases the time gap between data capture and data consumption is minimal. Finally, most of the times, all the-se come with no cost and without sophisticated and restrictive licen-sing agreements.

What is next?The evolution and possibilities of VGI in the Geospatial do-main have attracted the interest of academics and professionals

alike with a growing number of governments and corporations leveraging this kind of GI infor-mation. However, it is clear that while, at this point, VGI cannot replace proprietary and authori-tative data, it can play a crucial role in correcting, enriching and updating existing datasets or pro-vide the basic information layer for new products. VGI has been a growing pheno-menon for over a decade now. Notwithstanding the acceptance that it has received so far, the most important factor that hin-ders a more widespread diffusion is the lack of a stable and standar-dized way to evaluate data quali-ty. Existing and well-established methods and processes for spatial data quality evaluation, while still valid, are not always applica-ble to VGI datasets. This drives researchers and academics into the study of new methods so to eloquently answer the pressing question about “how good is VGI data?”. The nature and the creation mechanisms of VGI led to the analysis of a number of fac-tors. However, research is still far from providing concrete answers and methods regarding the eva-luation of VGI quality. Here, we just scratched the surface of the ongoing research on VGI quality evaluation.Now, if we had to provide a prediction for the future, which is always a challenging task, it would be that the times ahead will get extremely interesting in this field. This optimistic view is based on the trends which more or less serve as the driving forces of VGI: technology and society. In the technological front, the evolution in Information and communications technology (ICT) will not leave VGI unaf-fected: bandwidth will keep increasing, the cost of hardware will keep dropping and the num-ber of people online will keep

growing and thus the pool of contributors will become larger and better equipped. This alone is great news for the future of VGI. However, the most crucial role is expected by the spatial data capturing devices that will pro-liferate or be introduced in the future. On the one hand is the ubiquity of sensors that passively collect spatial data, mostly in urban context. The transforma-tion of our living environment into smart cities inevitably passes through a better understanding and a more detailed recording of space and human activity. This development is based on the consideration that location and spatial information are common goods and promotes their availa-bility in order to stimulate inno-vation (Roche et al. 2012). Then, is the individually controlled devices. The spread of drones, for which we are still exploring their abilities to contribute in syste-matic data gathering, is expected to bring VGI in a whole new level. Moreover, the evolution of the wearable technology, while still in its early days, is expected to contribute to the evolution of VGI. The omnipresence of wearable sensors is expected to multiply the availability of spatial data on the Web. Similar impact is expected by the development of indoor positioning and map-ping systems (e.g. Google’s Tango project) which will extend VGI into new fields. So, in short, GI capturing devices, on top of what it is today available, will cover also the area of aerial surveying, of everyday activities and of in-door mapping, and this is just a sneak preview of the near future. In the societal front, the future could be even more exciting. Crowdsourcing, volunteerism, citizen science and social enter-prises are just some of the early formations which the increased online connectivity has brought.

GEOmedia n°1-2016 45

GUEST

It is really amazing how online communities address real world problems and even more impres-sive how this grassroots collabo-ration overcomes societal barriers and enables citizens to participate in the management and improve-ment of quality of life. The social transformation shaped by online communities will prove equally important factor in the evolu-tion of VGI as the technological advances. How this ecosystem affects the understanding of VGI quality? We need to understand that this area is highly interdisciplinary in that intertwines the advances of many domains. VGI is the graf-ting of the underlying social, eco-nomic and technological situa-tion with the geospatial domain. It is incarnated with the tangible recording of citizen’s perception for space and phenomena they consider important to have on a map. However, despite the work and empirical research available on the subject of VGI quality, a solid framework for assessing the quality of crowdsourced spatial data is far from being established for all the reasons explained here. This should be the next goal for VGI on our way towards Digital Earth.

REFERENCESAntoniou, V. (2011). User generated spatial content: an analysis of the phenomenon and its challenges for map-ping agencies. Ph.D. Thesis, University College London.Antoniou, V. and Skopeliti, A. (2015). Measures and Indicators of Vgi Quality: An Overview. ISPRS Ann. Photogramm. Remote Sens. Spatial Inf. Sci., II-3/W5, pp.345-351.Girres, J. and Touya, G. (2010). Quality Assessment of the French OpenStreetMap Dataset. Transactions in GIS, 14(4), pp.435-459.Goodchild, M. (2007). Citizens as sensors: the world of volunteered geography. GeoJournal, 69(4), pp.211-221.Haklay, M., Basiouka, S., Antoniou, V. and Ather, A. (2010). How Many Volunteers Does it Take to Map an Area Well? The Validity of Linus’ Law to Volunteered Geographic Information. The Cartographic Journal, 47(4), pp.315-322.International Organisation for Standardisation 2005. ISO 9000: Quality management systems - Fundamen-tals and Vocabulary, Geneva: ISO.International Organisation for Standardisation, 2013. ISO19157:2013 Geographic information - Data qua-lity, Geneva: ISO.Keßler, C., de Groot, R. T. A., 2013. Trust as a proxy measure for the quality of Volunteered Geographic Information in the case of OpenStreetMap. In: Geographic information science at the heart of Europe, Springer International Publishing, pp. 21-37. Roche S, Nabian N, Kloeckl K and Ratti C (2012). Are ‘smart cities’ smart enough? In: Rajabifard A and Coleman D (eds) Spatially Enabling Government, Industry and Citizens: Research Development and Perspectives.Tobler, W. (1970). A Computer Movie Simulating Urban Growth in the Detroit Region. Economic Geography, 46, p.234.Turner, A. (2006). Introduction to Neogeography. Sebastopol, Calif.: O’Reilly.Van Exel, M., Dias, E., Fruijtier, S., 2010. The impact of crowdsourcing on spatial data quality indicators. In: Proceedings of GiScience 2010, Zurich, Switzerland.Zielstra, D., Zipf, A., 2010. A comparative study of proprietary geodata and volunteered geographic information for Germany. In: Proceedings of the Thirteenth AGILE International Conference on Geographic Information Science, Guimarães, Portugal.

PAROLE CHIAVEVGI; datasets, GI; spatial data quality

ABSTRACTOggi la Volunteer Geographic Information (VGI) è onnipresente. Proviene da varie fonti e può essere trovata in molti aspetti tra cui toponimi, tracce GPS, foto geo-tag, applicazioni di social networking, blog, misurazioni dei sensori, mappe topografiche ecc. Può essere il frutto di un lavoro sul campo o di bulk data importati da un dataset autorevole, disponibile gratuitamente. E' ovvio che tutte queste fonti non possono solo cadere in un'unica categoria. Ci sono molti aspetti che possono essere esaminati qui, ma di particolare interesse, quando si esaminano le fonti e le tipologie di VGI, sono l'origine, la motivazione e lo scopo di chi contribuisce alla VGI.

AUTOREVyron [email protected] Military Academy, Greece

46 GEOmedia n°1-2016

MERCATO

EXPO Ferroviaria: soluzioni Trimble dedicate al mondo railTorna l'EXPO Ferroviaria, la vetrina italiana per le tecnologie, i prodotti ed i sistemi ferroviari. Il 5-7 Aprile 2016, presso il Lingotto di Torino, Trimble sarà presente allo Stand 921, per presen-tare tutte le soluzioni dedicate al mondo Rail tra cui Trimble GEDO CE.Trimble GEDO CE, riprendendo la filosofia

Trimble della modularità e dell'integrazione dei processi di trattamen-to del dato, rappresenta la soluzione completa per il rilievo del binario ferroviario, tramviario e metropolitano su base relativa e/o assoluta; il rilievo della frecciatura digitale; verifiche di transitabilità.Trimble da oltre 35 anni crea soluzioni tecnologicamente avanzate per l'acquisizione e il trattamento dei dati spaziali 3D, anche per l'ambito ferroviario.Trimble ha scelto Spektra Srl come distributore unico per il territorio italiano, delle sue soluzioni dedicate ai professionisti che operano nel mondo Rail.Spektra si propone al mercato come Partner e Technology Solution Provider, offrendo ai propri Clienti soluzioni innovative e di qualità per il rilievo del binario ed i servizi a valore aggiunto ad esse correlati:

tecnologia ad elevata affidabilità intuitività e modularità dei sistemi know how ed expertise

Per ulteriori informazioni visitare www.trimble-italia.it o scrivere a [email protected]

(Fonte: Spektra)

Nuovo ricevitore GNSS Zenith35, con funzionalità Tilt & Go per i punti più difficiliGeoMax presenta un nuovo modello della serie Zenith35 GNSS. Incorporando le funziona-lità uniche Tilt & Go, lo Zenith35 TAG consente di misurare punti inac-cessibili e memorizzare i valori di inclinazione di ogni misura a scopo di documentazione e con-trollo di qualità.Punti inaccessibili come un palo verticale, angoli, muri, pali della luce o canali sotto i veicoli parcheggiati possono semplicemente essere misurati con la funzionalità Tilt & Go. A differenza dai sistemi che incorporano metodi basati su bussola magnetica, la funzionalità Tilt & Go può essere utilizzata in prossimità di og-getti metallici come pali della luce o direttamente sotto le linee elettriche.Per aggiungere il massimo comfort e flessibilità ed evitare il passaggio tra il sistema di livella analogico e il display, Zenith35 viene fornito con una livella elettronica visualizzata direttamente nel software da campo, migliorando notevolmente la precisione di centramento.

(Fonte: GEOMAX)

48 GEOmedia n°1-2016

MERCATO

TITAN4HSE

+39 0544 771407 WWW.ITALDRON.COM [email protected]

IL FUTURO DEL RILIEVO 3D MAPPING

GEOmedia n°1-2016 49

MERCATO

Your guarantee to growth

Espandi la tua att iv i tà con una maggiore reddi t iv i tà.Topcon può a iutart i a raggiungere i tuoi obiet t iv i ,

e sarà l ì con te ogni passo.

TOKYO · SAN FRANCISCO · MOSCA · ROTTERDAM · BRISBANE

www.topconpositioning.it

Exper ience how . . .

id7_TC00120_2832811_001.indd 1 13-5-2015 10:12:04

12 Aprile 2016 Il Contributo dei Servizi Satellitari ai trasporti e alla navigazioneRomawww.geoforall.it/kaw4y

13-15 aprile 2016 X° GIS-ForumMosca (Russia)www.geoforall.it/k3cw6

20-21 aprile Conferenza Utenti Esri ItaliaRoma www.geoforall.it/kaxhk

26-27 Aprile 2016 GISTAM 2016Romawww.geoforall.it/k3hd4

3-5 maggio 2016 Big Data 2016Alicante (Spagna) www.geoforall.it/k3c6p

11 maggio 2016Il ruolo dell’informazione geografica nel contesto dell’agenda digitaleRoma www.geoforall.it/kaw4c

11 - 13 maggio 2016 Convegno AIC 2016San Benedetto del Tronto www.geoforall.it/kax4r

24-25 Maggio 2016 Geo Business 2016London (UK) www.geoforall.it/k3y39

24 - 26 Maggio 2016FORUM PA 2016Romawww.geoforall.it/kaxhp

30 maggio 3 Giugno 2016 European Space SolutionL’Aiawww.geoforall.it/kawf9

8-10 giugno 2016Convegno SIFETLeccewww.geoforall.it/kax4h

20-24 Giugno 2016 36th EARSeL SymposiumBonn (Germany)www.geoforall.it/kawfw

22-24 Giugno VIII CONVEGNO AIT Associazione Italiana di telerilevamentoPalermowww.geoforall.it/kax4q

12-19 Luglio 2016 23rd ISPRS CongressPraga (Czech Republic)www.geoforall.it/k3fcd

24-26 agosto 2016FOSS4G 2016Bonn (Germania)www.geoforall.it/kaxry

14-16 settembre 2016 GEOBIA 2016Enschede (The Netherlands)www.geoforall.it/ka9ur

4-6 ottobre 2016 TECHNOLOGYforALL Romahttp://www.technologyforall.it

11-13 ottobre INTERGEO 2016Hamburg (Germania)www.geoforall.it/kaxhh

AGENDA

GESTISCI L’INFRASTRUTTURA CON UN SOLO GEODATABASE INTEGRATOCon FiberManager® puoi gestire le reti di telecomunicazione con un unico geodatabase che consente la visione globale ed integrata dell’intera infrastrutt ura di rete. In questo modo hai a disposizione uno strumento di business intelligence geografi ca centralizzato, da cui puoi estrarre tutt i i report, gli schemi e i documenti necessari a progett are, costruire, sviluppare e gestire la tua rete nel modo più effi cace possibile. FiberManager® mett e a fatt or comune la piatt aforma GIS leader nel mondo con il modello dati e le funzionalità smart implementate da una community network di aziende di telecomunicazioni operanti in vari paesi nel mondo.

FiberManager® è una verticalizzazione della suite ArcFM® di Schneider Electric, di cui Sinergis è rivenditore esclusivo in Italia. www.sinergis.it

FIBER MANAGER®TUTTA LA TUA RETE A PORTATA DI MANO

works when you do

GEOMAX

Anche nelle condizioni atmosferiche più avverse, GeoMax fornisce le migliori soluzioni prezzo-prestazioni, works when you do.

[email protected] - www.geomax-positioning.it


Recommended