L’istrionico Paul Ramsey di OpenGeo in una sua presentazione di 5 minuti a Where 2.0 2010, ci apre gli occhi su quanto realmente i nostri dati facciano schifo… e ci invita a rendercene conto e a dirlo agli altri.
“Le mappe sono cose pericolose, la gente crede alle mappe” afferma Paul, “le mappe sono verità, e la gente prende questa verità e ci costruisce sopra informazioni“… questo è l’incipit di una critica ad una realtà – quella sulla precisione dei geodati pronti all’uso – che in effetti ormai sfugge anche a molti di noi, che con questa roba ci lavoriamo.
Ma non voglio aggiungere altro. Godetevi l’ironia di Paul e… pentitevi peccatori! Siete ancora in tempo!
GIScover è molto popolare tra gli appassionati di outdoor e GPS come il sottoscritto. Nato come mashup di Google Maps per condividere i propri itinerari, attraverso lo scambio di tracce GPS, si è gradualmente evoluto in una realtà più complessa ed in direzioni complementari.
In particolare ho trovato interessante l’utilizzo dell’User-Generated Content o UGC per proporre un servizio commerciale e personalizzato alle autorità turistiche locali.
Per capire meglio la realtà imprenditoriale che c’è dietro ho preferito quindi la forma dell’intervista, scritta e video, chiedendo direttamente al fondatore, Massimo Nicolodi, qualcosa di più sulla sua creatura.
Lorenzo Perone – Cos’è GIScover?
Massimo Nicolodi- GIScover è un punto d’incontro per appassionati di viaggi itineranti e di attività outdoor. L’obiettivo principale è quello di fornire una banca dati di tour e tracce GPS accessibile gratuitamente da chiunque e da ovunque.
Per gestire la grande quantità di dati è stato creato un motore di ricerca potente, ma facile ed intuitivo nell’uso, capace di reperire velocemente i tour ricercati.
Tutti gli utenti del sito possono registrarsi e scaricare i tour gratuitamente.
Ad oggi abbiamo 6640 tour per una distanza di 367538 Km ed un dislivello in salita di 11032 km.
LP – Quando è nato GIScover?
MN – Nel 2004.
LP – Perché è nato GIScover?
MN – ll team di GIScover è formato da grandi viaggiatori ed amanti di sport estremi. Negli ultimi anni le tecniche e gli equipaggiamenti sportivi sono cambiati e si sono evoluti, ma due cose sono rimaste costanti: pianificare un nuovo viaggio è ancora una cosa difficile che richiede tempo e dedizione e, nonostante questo, l’eventualità di perdersi nei posti che andiamo a visitare è un’eventualità da non escludere.
Quando cominciai ad utilizzare i primi ricevitori GPS nelle mie avventure mi resi subito conto di come questo piccolo apparecchio tecnologico poteva cambiare la mia vita. Portarlo sempre con me nelle escursioni sulle alte vie delle Dolomiti, significava avere una garanzia di soccorso in caso di necessità ed inoltre era la garanzia di non perdere più la rotta. Il GPS aveva un’interfaccia semplice e poteva comunicare con il PC. In questo modo potevo salvare ed archiviare i percorsi effettuati e potevo caricare le nuove tracce da percorrere recuperate attraverso amici e conoscenti.
Da qui il passo a capire che anche altri appassionati delle Dolomiti come me potevano essere interessati a questi scambi è stato breve.
In poco tempo l’idea ha preso forma: perché non costruire, in collegamento con le autorità turistiche locali, un servizio di informazioni complesso capace di promuovere le zone meno conosciute turisticamente e di fornire un nuovo valore all’esperienza di chi si reca in questi posti? E perché non utilizzare un portale Web, con un motore di ricerca avanzato, per rendere accessibile a chiunque le informazioni in modo semplice, veloce ed economico?
LP – Quante persone hanno collaborato alla nascita di GIScover?
MN – Eravamo in 10.
LP – Chi erano i protagonisti delle escursioni? Voi? Dei vostri amici? Un’associazione sportiva alla quale vi eravate affiliati?
MN – Appassionati di outdoor, io e mia moglie, amici. Abbiamo iniziato a mappare le principali ciclabili del trentino, le altevie delle dolomiti e percorsi di MTB tra cui le Transalp da Mittenwald al Garda (ne ho concluse 5).
LP – Che tecnologie utilizza Giscover?
MN – PHP, MySQL, Google Maps, Drupal. Nella nuova versione integreremo anche Open Street Map con scambio di tracce.
LP – Quanti utenti ha oggi GIScover?
MN – Circa 16.00.
LP – Come ha fatto GIScover a catalizzare la massa critica di percorsi che gli ha permesso di diventare così popolare?
MN – Siamo stati i primi a scambiare le tracce gratuitamente e abbiamo iniziato con bellissimi tour di sci alpinismo e mountain bike.
LP – Cosa sono gli ecopunti?
MN – Sono dei punti attribuiti agli utenti in base ai chilometri di percorsi caricati e che traduciamo in buoni sconto per acquisto di GPS e software dal nostro sito.
LP – Il compenso in ecopunti per i percorsi inseriti è stato efficace?
MN – E’ stato particolarmente stimolante per alcuni rilevatori che hanno svolto un lavoro incredibile.
LP – C’è qualche utente che ha raggiunto livelli di retribuzione tali da fare acquisti importanti?
MN – Qualcuno ha ricevuto dispositivi GPS pagati con il sudore e gli ecopunti.
LP – Quante sono le persone attualmente impiegate in GIScover? Che profili hanno?
MN – Ci sono attualmente 5 sviluppatori, collaborano inoltre fotografi e web designer.
LP – GIScover mostra attualmente una trasversalità di servizi (shop, corsi, servizi di geolocalizzazione, servizi di web-gis di supporto al marketing territoriale) quali sono quelli trainanti da un punto di vista economico?
MN – I principali settori di riferimento sono il turismo, la pubblica amministrazione e l’educazione.
Abbiamo richieste da diverse località turistiche di aggiungere ai loro siti web delle funzionalità geoweb per promuovere i principali punti di interesse ed itinerari sul loro territorio. A questo proposito stiamo introducendo il concetto del GPS Guided Tour.
La presenza di GPS sui telefoni di nuova generazione sta accellerando la diffusione e la richiesta di queste tecnologie, di conseguenza noi stiamo investendo in ricerca e sviluppo sul settore mobile (Nokia, iPhone e Andorid).
Abbiamo iniziato un’attività di collaborazione con editori, in particolare segnalo la collaborazione con Ediciclo, editore specializzato nella pubblicazione di guide escursionistiche e per il cicloturismo. Stiamo accompagnando le ultime pubblicazioni con tracce GPS per agevolare i lettori nell’individuazione dei percorsi.
LP – C’è un sito/progetto italiano a cui ti sei ispirato o che ti piace particolarmente?
MN – I miei riferimenti sono wikipedia, flickr, google maps e youtube.
La nuova versione di GIScover che stiamo sviluppando ne permetterà una facile integrazione con funzioni simili.
LP – Quali sono i temi su cui state investendo e che pensate possano diventare economicamente rilevanti per la vostra azienda?
MN – Turismo, annunci classificati, pubblica amministrazione, educazione, mobilità e trasporto pubblico, sicurezza in montagna, applicazioni per mobile (Symbian, iPhone, BalckBerry e Android), canali tematici per i geocontenuti.
LP – Ci sono delle attività, diverse da GIScover, in cui siete coinvolti in questo momento e di cui vuoi parlarci?
MN – Un progetto al quale tengo particolarmente è “Scuola Web 2.0 – Esplora e Racconta” che è stato approvato e finanziato dalla Fondazione della Cassa di Risparmio di Trento. E’ un progetto rivolto al mondo dell’educazione con scuole medie e secondarie del trentino ed alcune facoltà universitarie. E’ prevista inoltre la partecipazione di enti per beni culturali, turismo ed innovazione tecnologica.
Google Maps per Mobile – qui è possibile richiedere fermate e linee da punto a punto anche per trasporto pubblico, provatelo su Firenze!
Digital Signage e automation – azienda con cui collaboriamo per sistemi di digital signage e broadcasting localizzato. Sono tra i maggiori produttori al mondo di display per outdoor e sistemi bancomat. Possono produrre anche distributori di biglietti e schede magnetiche.
Google Transit – elenco delle città che offrono informazioni e orari per trasporto pubblico. Speriamo di poter aggiungere anche la regione Abruzzo.
Terravision – sito interessante per organizzare vacanze “fly and ski” e turismo estivo e attivo (bici escursionismo ecc…).
Val Venosta – Itinerari turistici in bici + treno.
Come lo stesso Istituto fa presente nell’introduzione, il lavoro ha come obiettivo essenzialmente quello di compendiare svariati dati di carattere amministrativo. Ma un altro passaggio degli editori, che mi ha positivamente colpito, mette in evidenza il ruolo della “geografia amministrativa”, che ha come scopo soprattutto quello di analizzare la suddivisione geografica dei soggetti pubblici che hanno competenze territoriali, e valutare l’efficacia della loro articolazione.
Il volume è organizzato in otto capitoli che descrivono:
Caratteristiche del territorio (zone altimetriche, classificazione dei Comuni secondo l’altitudine, il grado di urbanizzazione, gli agglomerati morfologici urbani).
Unità amministrative (circoscrizioni comunali, comunità montane, comunità isolane).
Unità funzionali: area economica (Direzioni regionali e provinciali del lavoro, Camere di Commercio, Centri per l’impiego, Agenzia del Demanio, Agenzia delle Entrate, Agenzia del Territorio, Agenzia delle Dogane, Distretti Industriali, Aree obiettivo UE).
Unità funzionali: area istruzione, turismo, cultura e servizi sanitari (Uffici Scolastici Regionali e Provinciali, Circoscrizioni turistiche, Dir. regionali beni culturali e paesaggistici, Soprintendenze beni AA, ASL)
Unità funzionali: area ambiente, trasporti e reti (ARPA/APPA, ATO, Aree naturali protette, CFS, Compartimenti ANAS, Compartimenti rete ferroviaria, ENAC, CAP, Distretti telefonici).
Unità funzionali: area difesa, sicurezza, giustizia (Questure, CC, GdF, Capitanerie di porto, VVFF, Corti d’appello, Tribunale ordinario, Giudici di pace).
Unità statistiche (Nomenclatura delle unità territoriali per le statistiche, Sistemi locali del lavoro, Specializzazione produttiva prevalente dei sistemi locali del lavoro, Distretti industriali).
Altre partizioni (Diocesi, Regioni ecclesiastiche).
Per ciascuna entità amministrativa viene descritta l’organizzazione dell’ente e le sue principali funzioni. Per ognuna di esse viene messo a disposizione uno shapefile (UTM 32 WGS84) e un file Excel con riportate informazioni descrittive minime. Gli strati geografici – come spiega lo stesso ISTAT – sono stati realizzati partendo dai confini amministrativi dei Comuni, aggregati con operazioni topologiche di dissolve a seconda dell’organizzazione territoriale di ogni entità presente nell’atlante.
La reale importanza della pubblicazione è sostanzialmente quella di raccoglie in maniera sistematica informazioni di carattere amministrativo relative a numerosi soggetti pubblici difficilmente reperibili altrove da fonti ufficiali.
Mancano d’altro canto, per ciascuna di esse, dati di tipo quantitativo che avrebbero costituito il vero valore aggiunto dell’atlante, come ad esempio il numero di scuole, di docenti e di alunni afferenti a USR e USP, il numero di poliziotti in carico alle Questure, o quello dei Carabinieri a Tenenze e Stazioni. Informazioni che avrebbero potuto costituire la base di dati necessaria per poter fare proprio quel lavoro di analisi dell’efficacia, del dimensionamento e dell’articolazione dei soggetti e degli operatori pubblici di cui si parlava prima. Fare geografia amministrativa è ancora difficile in Italia, perchè spesso i dati vanno aggregati ad hoc, ma questo atlante è già un importante passo avanti.
Ah, dimenticavo… rimane come al solito il problema della licenza di utilizzo di questi dati. La dicitura in quinta pagina del volume “Si autorizza la riproduzione a fini non commerciali e con citazione della fonte” è abbastanza chiara, ma per completezza vi invito a leggere con attenzione l’esperienza che hanno avuto gli amici di GFOSS.it sempre con l’ISTAT, sembra comunque positiva.
Gli eventi abruzzesi mi hanno toccato molto. Non poteva essere diversamente.
Sono un geologo e mi occupo di sistemi informativi geografici; posso dare un piccolo aiuto anche io, sfruttando le mie attitudini e le mie competenze?
Per giorni non ho trovato la risposta, poi mi contatta in chat Alessio Di Lorenzo, un amico biologo abruzzese e curatore del portale cartografico del Parco Nazionale della Majella, e mi chiede se conosco una fonte da cui estrapolare dei dati sugli eventi sismici di questi giorni. Li vuole elaborare e trasformare in una sorgente geoRSS, prendendo spunto proprio da quanto abbiamo scritto qui. Inizialmente la cosa mi ha fatto piacere, ma non mi ha stimolato nulla. In seguito, aprendo l’URL che gli ho inviato, quello del Centro Nazionale Terremoti dell’Istituto Nazionale di Geofisica e Vulcanologia, qualcosa mi ha fatto “click” in testa. Ma “poco poco, piano piano”.
Mi sono passati davanti agli occhi, i dati sismici pubblicati in questi giorni. Quelli “ufficiali”, quelli presentati dai giornali online di tutto il mondo, quelli sui blog. Alcuni sono caratterizzati da piccole grandi carenze, potenzialmente superabili con poco sforzo, ma con origini che sono profonde.
Tim Berners-Lee, uno degli “inventori” del World Wide Web, ha presentato nello scorso Febbraio una relazione orale sul futuro del Web (grazie a Stefano Costa per la segnalazione). E’ visibile in diversi siti, e gli dovreste dedicare 15 minuti del vostro tempo (se la guardate qui ci sono i sottotitoli, ha un inglese “difficile”), qualsiasi mestiere facciate. In quella sede ha lanciato uno slogan: “raw data now“, letteralmente “dati grezzi ora”. Ha invitato il “mondo”, gli enti pubblici e quelli privati, a “liberare” i propri dati e creare i presupposti affinché questi possano essere accessibili e mescolati tra loro. Ha invitato inoltre tutti noi a stimolare chi detiene dati, a muoversi in questo senso; senza la condivisione, questi perdono quasi del tutto la loro qualità.
Berners-Lee individua tre regole:
deve bastare un semplice indirizzo web, un URL, per puntare ad un dato
chiunque abbia accesso a quell’URL, deve poter scaricare i dati in qualche formato standard
devono essere descritte le relazioni tra i dati (Andrea è nato a Palermo, Palermo è in Italia, etc.), e queste relazioni devono essere espresse ancora una volta tramite un’URL
Questo sarà il web 3.0, basato sui dati e (si spera) sulle relazioni semantiche tra gli stessi. Ma torniamo ai dati sismici sul nostro paese. Rispettano queste tre regole?
Questa non sarà una critica al CNR ed all’INGV. Leggo sul loro sito, che gran parte dei dati da loro pubblicati in questo contesto, sono affidati (ancora una volta) al volontariato. A molti dipendenti infatti sembra non sia stato rinnovato il contratto. Non conosco questa situazione, ma è molto triste anche soltanto immaginare che una funzione di questo tipo possa essere “relegata” a semplici attività di volontariato.
Quello dei dati sismici è per me solo uno spunto, ed il discorso va allargato a tutti i contesti in cui esistano dei dati pubblicati in modalità poco efficienti (o addirittura non pubblicati).
Il formato in cui sono accessibili gran parte dei dati sismici è il CSV :
è un formato di file basato su file di testo utilizzato per l’importazione ed esportazione (ad esempio da fogli elettronici o database) di una tabella di dati. Non esiste uno standard formale che lo definisca, ma solo alcune prassi più o meno consolidate.
Un esempio pratico è quello delle date, espresso in alcuni file dell’INGV in questo formato YYYY/MM/DD (2009/04/13). Aprendo uno di questi file con un foglio elettronico, il campo “data” verrà quasi sicuramente interpretato in automatico ed adattato alle impostazioni “locali” del vostro PC. Su molti PC italiani, sarà infatti forzato questo formato: DD/MM/YYYY (13/04/2009). E’ la stessa data? Sembra di si. Ma se iniziassimo a scambiare questi dati con colleghi, che usano un semplice blocco note per aprire il file CSV (senza quindi che i dati siano “trasformati”), o che vivono in un altro paese (quindi con un’impostazione locale differente), in quanto tempo ne perderemmo l’integrità?
Usando degli standard, ad esempio per le date l’ISO 8601 , riusciremo a dare ai nostri dati una vita più lunga ed anche una “platea” molto più estesa.
Altre volte i dati sono pubblicati come tabelle HTML. Avete mai provato a fare copia ed incolla di una tabella, da una pagina web ad un foglio elettronico? Molte volte se ne esce con le ossa rotte.
E’ giusto pubblicare i dati in html, ma dovremmo sempre fornire anche altre possibilità. Il servizio geologico americano (“so forti li americani”), lo USGS, pubblica da tanti anni un catalogo di eventi sismici in tre formati: KML (il formato di Google Earth che è ormai uno standard OGC), CSV ed XML (geoRSS). E’ una scelta che mi sembra cristallina. Si conciliano infatti formati adatti ad un’immediata divulgazione, con un formato RAW (come direbbe Tim Berners-Lee). Il file KML e quello XML consentono ai dati di essere interpretati correttamente da una macchina e di essere “mescolati” più facilmente con altri provenienti da altri pc, scritti con altri software e prodotti da altri gruppi di lavoro. Questa opportunità è un aspetto molto importante, in quanto l’incrocio di dati diversi spesso fa saltare agli occhi significati inaspettati; a costo di essere noioso, se non definisco i miei dati in un formato standard, sarà difficile riuscire a correlarli “immediatamente” con altri. L’INGV si sta muovendo sullo stesso solco, e in questa pagina troverete i dati degli eventi sismici degli ultimi 90 giorni sia informato CSV, che KML. Ma troverete anche questo avviso:
Le informazioni contenute in queste pagine sono state sinora garantite dalla disponibilità del personale, precario e non dell’Istituto Nazionale di Geofisica e Vulcanologia. L’agitazione del personale dell’Istituto contro l’emendamento 37bis alla proposta di legge 1441 quater, che in sostanza provocherebbe il quasi immediato licenziamento del personale precario, porterà alla sospensione di tutte le attività. Nell’immediato si procederà al blocco di ogni tipo di informazione telematica e telefonica non istituzionale.
Ma torniamo un attimo alle tre regole di sopra. La prima può sembrare meno importante, ma nasconde nella sua semplicità di formulazione un grande potere (sembra Spiderman).
Usiamo ogni giorno gli indirizzi http, gli URL. Li usiamo in modo naturale e spontaneo, senza chiederci cosa siano, su cosa si basino e come funzionino. E non c’è nulla di male.
Quando cambio canale della mia TV con un telecomando, non devo avere alcuna nozione sulla trasmissione dell’infrarosso; devo soltanto saper che devo usare un determinato tasto. Se prendo il telecomando del mio nuovo stereo, mi viene naturale utilizzarlo allo stesso modo. Così per il lettore DVD e per la mia pompa di calore (dite che questa è una forzatura?).
Anche accedere a diversi tipi di dati, di diversa origine, dovrà essere una cosa così semplice e “spontanea”. Con lo stesso protocollo, l’http, non più accedere “soltanto” a pagine web ma anche a fonti di dati grezze.
Quello che gli eventi abruzzesi mi hanno stimolato, come uomo e come professionista, è l’attenzione alla politica della gestione dei dati. Le classi dirigenti del nostro paese dovrebbero allinearsi a quanto esposto da Tim Berners-Lee. Sia perché il cittadino possa essere informato, sia per dare forza e valore ai dati, i quali se chiusi in un hd o divulgati in modo inappropriato rischiano di essere inutili e di produrre uno spreco (non soltanto economico).
Dobbiamo tenere alta l’attenzione verso questi temi.
I fatti di questi giorni, il dialogo con i colleghi di TANTO, l’indiretto stimolo di Alessio, i post di altri blogger, mi hanno spinto anche a provare a realizzare una piccola cosa concreta, proprio a partire dai dati sismici della regione Abruzzo.
Si tratta di qualcosa che a prima vista è confrontabile alle interfacce di webmapping basate su Google Maps, in cui in coincidenza della posizione di ogni evento sismico è raffigurato un “pallino”. Quello che ho provato ad aggiungere è la possibilità di modificare e “mescolare” i criteri di visualizzazione del dato: a partire dalla serie di dati che ho estratto, poter visualizzare ad esempio soltanto gli eventi sismici di Marzo, di magnitudo maggiore di 4, di profondità compresa tra 5 e 10 km e del distretto sismico del “Gran Sasso”. L’utilizzo di questi filtri mi ha dato (da utente) la sensazione di potere leggere “meglio” i dati; spero che non dipenda dall’emotività con cui ho lavorato su questo piccolo progetto.
Ho aggiunto anche una timeline, che da la possibilità di passare dalla visualizzazione degli eventi in scala spaziale, ad una efficacissima in scala temporale. Anche qui potrete usare gli stessi filtri.
C’è una visualizzazione tabellare “dinamica” in HTML, ordinabile usando qualsiasi delle colonne presenti, ed anche questa “sensibile” ad i filtri.
Infine i dati sono esportabili in diversi formati, tra i quali: RDF/XML, Semantic wikitext, Tab Separated Values. Per attivare l’export basta andare con il mouse alla sinistra del modulo “Cerca”, e cliccare sull’icona a forma di forbice che verrà visualizzata (vedi figura).
Purtroppo ho riscontrato un problema con l’export nel formato a cui tenevo di più – RDF/XML – ma spero di risolverlo nei prossimi giorni (è un piccolo autogol ).
L’interfaccia sviluppata ha però un vero grande difetto (e magari non sarà l’unico): non si aggiornerà in automatico, ogni volta che verranno pubblicati nuovi dati dall’INGV. Questo perché sono partito dai quelli pubblicati qui (una tabella HTML), e non da quelli in CSV o KML. Nei prossimi giorni proverò a partire da quelli in CSV, darli in pasto a Yahoo! Pipes ed automatizzare il processo di pubblicazione.
L’applicazione è visibile qui, e qui sotto vedete uno screenshot della timeline.
E’ realizzata con Exhibit, e ci scriverò a breve un tutorial di dettaglio. In questo post volevo “fare” altro.
Chiudo dando la disponibilità di collaborazione mia e dei miei colleghi, a chiunque ritenga che le nostre competenze possano essere d’aiuto in questo momento.
Un abbraccio forte a tutti quelli che stanno vivendo questo terribile momento; uomini, donne e bambini con una compostezza ed una dignità fuori dal comune.
Grazie alla mailing list EGIP (European GI Policy Discussion Forum) e a Dave Lovell di Eurogeographics sono venuto a conoscienza di questo video sull’importanza dell’informazione geografica e delle SDI (Spatial Data Infrastructure): CGDI Interoperability Pilot.
Su questo tema ci sono altri video interessanti (di uno ne avevamo già parlato):
Lezioni online per spiegare scienza e tecnologia Oilproject organizza con l’Istituto Italiano di Tecnologia una serie di lezioni divulgative su neuroscienze, nanotecnologie, farmacologia e macchine intelligenti, per raccontare al grande pubblico lo stato dell’arte della ricerca di base e applicata. Qui tutti i dettagli. Leggi tutto... (0)
Il GFOSS Day 2011 è a Foggia I prossimi 24 e 25 novembre l’Università degli Studi di Foggia ospiterà il GFOSS DAY 2011, organizzato come di consueto dall’Associazione Italiana per l’Informazione Geografica Libera GFOSS.it Leggi tutto... (1)
Mappali, denunciali e... tassa.li Tassa.li è una interessante startup realizzata da un gruppo di giovani tecnologi, con l’intento di rendere facile la denuncia di esercizi commerciali che non rilasciano il regolare scontrino fiscale. E in un periodo nero come questo, molta gente avrà una gran voglia di partecipare. Grazie a una applicazione disponibile sia per iOS che Android, è infatti possibile in pochi clic geotaggare l’esercizio e riportare la somma dello scontrino non emesso. Il tutto in maniera assolutamente anonima. E questi ragazzi dimostrano di vedere molto lontano, perché presto rilasceranno i dati raccolti in forma totalmente aperta e libera. (7)
TANTO non rappresenta una testata giornalistica ai sensi della legge n. 62 del 7.03.2001, in quanto non viene aggiornato con una precisa e determinata periodicita'. Pertanto, in alcun modo puo' considerarsi un prodotto editoriale.