Lentamente -ma inesorabilmente- il nostro modello culturale sta subendo un cambiamento radicale, per affrontare l’evoluzione dell’umanità nel XXI secolo.
I dialoghi, le discussioni, sull’Open Datae sul Government 2.0 (per es. qui) mi hanno persuaso a riprendere in mano una nota, scritta qualche anno fa.
Ero stato invitato a tenere una lezione sulla Geographic Information nell’ambito di un master di Logistica. L’obiettivo che mi era stato assegnato prevedeva, in sintesi, la consegna di una sorta di “borsa degli attrezzi della GI”, che potesse essere di ausilio ai futuri professionisti, come bagaglio di conoscenze da portare con sé e recuperare quando si fosse presentata un’esigenza.
Interagendo con gli organizzatori del corso, rilevammo insieme diverse analogie tra le due discipline. Imparai che le attuali teorie della materia non considerano più una catena di fornitura a compartimenti stagni, anzi la Logistica oggi è intesa per governare tutte le fasi di un processo produttivo, anche esterno all’azienda, secondo una visione sistemica. Insomma, si è affermato un approccio di management di una supply chain in cui la singola azienda è nodo di una rete di entità organizzative che interagiscono per fornire prodotti, servizi e informazioni che creano valore per il cliente. Sia la Logistica, sia l’Informazione Geografica sono materie complesse: entrambe stanno cercando di dare risposte ai nostri bisogni, nel contesto dei temi contemporanei: globalizzazione, sviluppo sostenibile, società della conoscenza, … .
Certamente l’Informazione Geografica assicura strumenti, metodi e conoscenze per parecchi campi di applicazione della Logistica: GPS, Location Based Services, Location Based Intelligence, RFID, GIS/Enterprise Resource Planning, Geomarketing, Geo-Data Mining, … e si potrebbe continuare. Forse –a saper vedere- anche concetti, argomenti e saperi della Logistica potrebbero fornire spunti e contributi nella creazione … della Digital Earth. In fin dei conti, non può anche un set di geo-dati essere identificato come “materia prima”, potenzialmente disponibile per categorie di utenti perché sia usato per creare prodotti e servizi, i quali libereranno nuovi set di geo-dati, pronti per essere utilizzati e quindi trasformati da altri utenti ancora, in un processo senza limiti?
Accompagnato da questi pensieri, oltre a preparare il materiale da mettere nella “borsa degli attrezzi”, cercai di scrivere qualcosa che parlasse dell’”Informazione Geografica” ai non addetti ai lavori, cercando d’incuriosirli, sperando così di stimolare la fantasia e incoraggiare la creatività del lettore.
Per scrivere la nota che leggerete, presi spunto da un’intuizione che ascoltai proprio in quel periodo: “Oggigiorno un progetto, una scelta strategica –in generale- un’azione si può considerare innovativa, cioè in grado di contribuire al progresso della collettività, se aderisce contemporaneamente ai seguenti tre paradigmi: sostenibilità, sussidiarietà e solidarietà”. Non è un teorema che debba essere dimostrato, mi è solo sembrata un’affermazione condivisibile e con questa idea in testa, ho tentato di fare emergere cosa possa significare per una qualsiasi iniziativa nel campo dell’Informazione Geografica l’adesione a ognuno di quei tre valori.
Non è ciò che si va dicendo e scrivendo, riferendolo al fenomeno dell’Open Data? Forse ricordarci di una stella di mare, di nome Agrippa, che per colpa dell’acqua che non sta mai ferma, deve sempre capovolgersi per mangiare, potrà aiutare in qualche modo.
Non è difficile avvicinare l’Informazione Geografica al paradigma della sostenibilità. Pragmaticamente, possiamo rendere l’idea immaginando un ciclo, in analogia con quello dell’acqua.
Tutti sappiamo che l’acqua del mare evaporando sale sino a formare le nubi; quindi, queste -trasportate dai venti- raggiungono la terraferma. Le nuvole sono poi la causa delle piogge, della neve, ecc.
L’acqua che cade al suolo si raccoglie nei fiumi e -pochi o molti chilometri dopo- ritorna al mare, così che la stessa acqua è pronta per ricominciare il ciclo.
Possiamo identificare ogni molecola o goccia d’acqua come un dato geografico. Un certo numero di questi, grazie a una sorta di energia -come l’energia del Sole per l’acqua del mare- e raggruppati insieme, diventano un set d’informazioni geografiche (le geo-nuvole). Queste informazioni possono essere trasformate dalle persone in conoscenza geografica, grazie alla loro capacità di usarle per i loro scopi: proprio come l’acqua che cade dalle nuvole può diventare una sorgente di vita per le creature viventi, avendone esse la capacità di usarla. Comunque, sia la geo-conoscenza (come l’acqua usata dalle creature viventi), sia le geo-informazioni (quelle catturate direttamente dai fiumi) devono ritornare al “geo-mare”, cioè possono essere riutilizzate.
Il ciclo dell’acqua è un esempio di ciclo sostenibile: varia da un posto all’altro e dovrebbe essere facile creare analogie, per esempio, tra i deserti e le foreste tropicali e situazioni dove le informazioni geografiche sono più o meno disponibili.
Sappiamo anche che il comportamento dell’uomo sta modificando la qualità di questo liquido fondamentale per la nostra vita. In altri termini, abbiamo bisogno di quantitativi sempre maggiori di acqua per le nostre attività ma, nello stesso tempo, noi stessi la stiamo inquinando, rendendola inservibile. E’ lo stesso quando produciamo geo-dati senza alcuna connessione tra loro: potremmo definirli “geo-dati usa e getta”. Mentre un servizio di approvvigionamento è l’equivalente dell’energia solare per l’acqua di mare, è l’energia che rende i geo-dati utilizzabili quante volte è necessario.
Stiamo infine anche capendo quanto sia difficile usare l’acqua consapevolmente e risparmiarla piuttosto che spendere un sacco di quattrini per purificare quella ormai inquinata. Allo stesso modo dobbiamo imparare a organizzare le informazioni geografiche ricordandoci i costi per generarle e permettendone l’utilizzo ogniqualvolta serve, a ogni utilizzatore: il nostro impegno deve essere quello di creare cicli di informazioni geografiche sostenibili!
Come può essere messa in relazione un’organizzazione per l’Informazione Geografica con il principio di sussidiarietà? Il miglior modo da questo punto di vista è quello di pensare a un’organizzazione come a un sistema olonico.
Il termine olonico fu introdotto per la prima volta da Koestler (Koestler, A., 1971), per descrivere un’organizzazione di unità base nei sistemi sociali e biologici. Poiché parlare di caratteristiche oloniche sarebbe un po’ noioso, mi aiuto con uno degli esempi di sistema olonico più citato: la stella di mare[1].
Come sappiamo tutti, questo grazioso animale, vive sulla sabbia o sulle rocce, vicino alla costa. La sua bocca è posta direttamente in corrispondenza del suo stomaco: ciò permette alla stella di mare di mangiare piccoli molluschi e crostacei. Le cinque braccia e il suo corpo, spesso dai colori brillanti, sono conosciuti da chiunque fin dall’infanzia. Mentre i principi che guidano i suoi movimenti sono meno noti.
Per sopravvivere una stella di mare deve sempre mantenere il suo corpo a pancia in giù ed è costretta a ribaltarsi ogni volta che le onde la capovolgono. Quando ciò avviene, una delle cinque braccia inizia a muoversi per prima, su e giù indipendentemente dalle altre, assumendo il ruolo di leader. Questo braccio stimola e guida i movimenti delle altre quattro e permette alla stella marina di tornare nella posizione giusta.
Quale delle cinque braccia debba muoversi per prima e assumere la leadership del movimento non è determinato a priori. Sembra che la guida del movimento sia presa dal braccio nella miglior posizione per fare da perno e consentire all’animale di capovolgersi.
Questo processo non solo accade quando la stella di mare deve ribaltarsi ma anche quando inizia a camminare. Per quest’azione i numerosi peduncoli ambulacrali presenti in ogni braccio si muovono inizialmente in modo casuale, per poi gradualmente integrarsi nel movimento del braccio nel suo insieme.
Questo meccanismo cooperativo dipende dai centri di attività delle cellule nervose che sono alla congiunzione dei cinque bracci collegati insieme da fibre nervose chiamate “anelli neurali” e che si scambiano informazioni reciprocamente.
Analizzando il moto della stella marina si è osservato che:
tutte le cellule nervose hanno la stessa natura, funzione e identico status;
tutte le cellule nervose agiscono in maniera autonoma;
esistono dei sistemi d’interazione più forti tra gruppi di cellule contigue, che si trovano sull’anello.
In altre parole, ogni cellula compie azioni individuali e autonome e, attraverso sottosistemi di relazione più intensa con altre cellule contigue, contribuisce, in modo armonico, ai movimenti dell’intero animale. Pertanto, l’insieme delle azioni autonome consente di mantenere stabile il modello di comportamento. Per le stelle di mare nessun comportamento premeditato avviene senza un’attività autonoma: la scelta delle opzioni di comportamento possibili, e dell’attivazione delle sequenze di azioni elementari, dipende unicamente dall’interazione tra le informazioni e il loro scambio.
Quando pensiamo a un’organizzazione per la gestione dell’informazione geografica di un determinato territorio (locale, regionale, …), possiamo immaginarla come una rete complessa, o meglio: nidi di reti, legate tra loro, a formare una infrastruttura a rete di un livello superiore. Infatti, sappiamo che i produttori/utenti di dati geografici possono essere pubbliche amministrazioni e utilities, imprese private e ONLUS, istituti di ricerca e anche i singoli individui: qualsiasi organizzazione costituita da singoli, squadre, uffici, reparti e così via. Seguendo la metafora della stella marina -creatura capace di vivere anche senza il cervello- allo stesso modo se un sistema organizzativo dedicato all’Informazione Geografica vuole rispettare il principio di sussidiarietà deve avere le caratteristiche di una rete olonica.
Non sembri strano mettere in relazione l’informazione geografica al principio di solidarietà. La solidarietà è la capacità di un sistema di aiutare i suoi elementi meno dotati perché siano messi in grado di contribuire allo sviluppo del sistema stesso, per mezzo di meccanismi che valorizzino le loro peculiarità.
Tutti ricordiamo l’apologo di Menenio Agrippa (il console romano, vissuto tra il VI – V secolo a.C.), il lampo di genio con cui è stato in grado di ripristinare un dialogo tra le componenti della società romana in conflitto.
Nella sua favola morale, le braccia –entrate in sciopero perché stanche di lavorare per lo stomaco, visto come un fannullone e parassita- dovettero rapidamente rendersi conto che erano le prime vittime della loro protesta, che lasciava non solo lo stomaco, ma tutto il corpo, senza cibo.
Possiamo paragonare l’informazione geografica al corpo umano. Questo è un sistema complesso e consente di estendere la metafora. Per esempio, possiamo assegnare al settore pubblico dell’informazione geografica le funzioni del sistema digestivo. Così come esso riceve il cibo e si preoccupa di scomporlo nelle sostanze necessarie alla vita di tutto il corpo, il settore pubblico raccoglie i dati geografici riguardanti il territorio ed è responsabile della loro trasformazione in informazioni utili a tutti gli utilizzatori (naturalmente, esso compreso). Il ruolo delle imprese private del settore potrebbe essere identificato con il sistema respiratorio: come quest’ultimo provvede a fornire l’ossigeno per portare nutrimento vitale a tutto il corpo, le imprese della Geographic Information distribuiscono tecnologie abilitanti, per tutti gli utenti, in vari modi.
Chi osserva il mondo esterno e orienta il comportamento del corpo? L’apparato dei sensi è il sistema deputato a queste funzioni e possiamo attribuire questo ruolo al settore della ricerca. Infine, come per il corpo umano il cervello rappresenta la “sala di commando”, ed è anche la sede del pensiero, possiamo identificare con esso la componente più complessa dell’Informazione Geografica: l’infrastruttura[2], nella quale si vanno ad accumulare conoscenze ed esperienze.
Seguendo le conclusioni della favola di Agrippa, è il buon comportamento complessivo che garantisce la sopravvivenza di ogni sua parte. Ogni elemento è a disposizione di ogni altro e non si può rifiutare di collaborare per la salute del corpo.
Partecipando all’infrastruttura dell’informazione geografica dobbiamo accettare l’impegno di far parte di un sistema, e questo ci vincola a un comportamento altruistico. La lezione che dobbiamo imparare dall’apologo di Agrippa è che esso diventa falso, appunto quando si sente la necessità di doverlo raccontare.
L’innovazione è tutta qui
Insomma, ho provato a guardare l’Informazione Geografica in tre forme: come un ciclo, una rete olonica e un’infrastruttura. Per ottenere un miglioramento dinamico di ogni processo di sviluppo del settore, si potrebbe immaginare che tutte queste tre caratteristiche debbano coesistere. In altri termini, quando si voglia intraprendere un’attività seguendo il nuovo modello culturale dobbiamo fare aderire la nostra iniziativa a questi tre paradigmi: sostenibilità, sussidiarietà e solidarietà. Contemporaneamente.
Singole organizzazioni e individui, tutti siamo chiamati a condividere queste idee, per diventare pienamente organizzazioni e cittadini del XXI secolo. L’Informazione Geografica, grazie alle dimensioni dello “spazio” (tecnologico, disciplinare e orientato alle applicazioni, organizzativo) in cui operiamo, rappresenta un’arena ideale in cui scendere in campo e valutare le nostre attitudini e capacità di accettare la sfida della nostra epoca.
[1] La similitudine della stella di mare l’ho presa da: Merli G., Saccani C.,“L’Azienda Olonico-Virtuale”, Il Sole 24Ore –Libri, Milano 1994.
[2] Per Infrastruttura di Informazione Geografica s’intende l’insieme delle politiche, accordi, tecnologie, dati e persone che rendono possibile condividere e utilizzare i geo-dati in maniera efficiente.
La notizia in sé pone due ordini di problematiche:
Il Presidente dell’INGV può decidere autonomamente di precludere l’accesso pubblico ai dati raccolti dall’Istituto?
Precludere l’accesso pubblico a tali dati corrisponde ad una scelta sensata?
Iniziamo dalla prima delicata questione.
L’Istituto Nazionale di Geofisica e Vulcanologia è stato istituito con il decreto legge n.381 del 29/09/99.
L’art. 2 del detto decreto legge recita:
Art. 2. – Attivita’ dell’INGV
1. L’INGV:
[...] f) rende disponibili per tutta la comunita’ scientifica i dati raccolti dalle proprie reti di monitoraggio, nazionale e locali.
[...]
Possiamo dire che rientra nella funzione dell’INGV la ricerca, il monitoraggio ma anche la diffusione delle notizie e degli allertamenti sui fenomeni sismici nazionali.
In tal senso sembrerebbe che non sia nella piena e libera disponibilità del Presidente dell’INGV prendere una scelta di tal genere, ovvero quella di oscurare sic ed simpliciter il sito informativo e, quindi, di non rendere pienamente pubblici i dati raccolti.
Eppure una certa lettura del citato articolo (disponibili per tutta la comunita’ scientifica) unitamente al combinato disposto con il DECRETO LEGISLATIVO 24 gennaio 2006, n. 36 (attuativo della direttiva 2003/98/CE relativa al riutilizzo di documenti nel settore pubblico), porterebbe a conclusioni diametralmente e drammaticamente opposte.
In sé la Direttiva Europea aveva lo scopo di liberalizzare l’accesso alle molteplici informazioni prodotte e detenute dalle Pubbliche Amministrazioni (dai dati di tipo economico a quelli scientifici, da quelli geografici ai dati turistici).
Tali informazioni, infatti, sono considerate come un’importante materia prima da utilizzare per i servizi e prodotti a contenuto digitale, tali da poter essere riutilizzati al fine di contribuire alla crescita economica e scientifica ed anche alla creazione di posti di lavoro. “La Direttiva invitava gli Stati membri a favorirne il riuso, incoraggiando gli enti pubblici a rendere disponibili i documenti e le informazioni in proprio possesso, a condizioni eque e trasparenti, a tutti i soggetti interessati al loro riutilizzo“.
Non possiamo dire che il D.L. abbia pienamente incarnato lo spirito della direttiva, anzi…
Se in Italia è vero che vige la legge 241 del 1990 sul procedimento amministrativo, è altresì vero che tale legge assegna il diritto di accesso ai documenti amministrativi solo ed esclusivamente a chi ha una situazione giuridicamente tutelata e collegata al documento richiesto. D’altro canto il Codice dell’amministrazione digitale del 2005 ha obbligato la pubblica amministrazione e rendere disponibili i dati in suo possesso in formato digitale, ma non ha inserito alcun obbligo alla trasparenza.
Eppure ancora oggi in Italia ci si scontra con logiche che non esiteremo a definire aberranti.
Resta quindi da chiarire quale sia realmente il dato pubblico cui tutti hanno diritto di accesso e la cui pubblicazione non può essere arbitrariamente inibita (come i dati sull’inquinamento atmosferico o marino, i dati dell’amministrazione pubblica, i dati sulla sanità, l’anagrafe pubblica degli eletti, etc.) e quali siano, d’altro canto, i meccanismi per tutelare il libero accesso a tali dati.
Qualcosa in Italia si sta muovendo, ad esempio lo statuto della Regione Toscana all’articolo 54 prevede “tutti hanno diritto di accedere senza obbligo di motivazione ai documenti amministrativi, nel rispetto degli interessi costituzionalmente tutelati e nei modi previsti dalla legge”. Il Codice dell’Amministrazione Digitale a partire dal 2005, all’art. 50, ha introdotto un importante principio di disponibilità del dati pubblici disponendo che gli stessi devono essere formati, conservati, resi accessibili e disponibili con l’uso delle ICT.
Quid iuris nel caso di specie?
Il ragionamento che ci sentiamo di sostenere è, sinteticamente, il seguente:
L’attività dall l’INGV è una attività di rilevanza pubblica, finanziata con denaro pubblico;
I dati che raccogli l’INGV hanno una rilevanza scientifica e sociale;
I dati raccolti dall’Ente, pertanto, devono essere resi pubblici ed in formato aperto;
L’INGV non può arbitrariamente smettere di fornire tali dati, se non attraverso procedure ben definite in accordo con gli altri enti istituzionali competenti (Protezione Civile e Ministeri competenti).
Alcune considerazioni vanno fatte poi a sostegno della libertà di informazione. Asserire che per evitare strumentalizzazioni sia opportuno censurare alla fonte i dati ricorda una ben nota vicenda sulla “necessità” di impedire che le intercettazioni telefoniche possano essere “usate male”. Se una informazione o un dato sono legittimamente resi disponibili al pubblico – e qui stiamo parlando di dati di fondamentale importanza per la pubblica incolumità – è questo stesso che, se li utilizza per sostenere delle tesi, per supportare notizie originali, o finanche per realizzare applicazioni – come abbiamo fatto proprio con i dati INGV noi di TANTO – se ne assume la piena e totale responsabilità.
Attenzione, un conto è la manipolazione del dato, ben altro il suo utilizzo così com’è nell’ambito di contesti anche originali, quali articoli, notizie, applicazioni. Manipolare un dato sui terremoti vuol dire aumentare o diminuire la magnitudo di un sisma, la sua localizzazione, il suo tempo di occorrenza, e chiunque lo facesse sarebbe certamente un criminale. Ma se il prof. Boschi per timore di strumentalizzazioni (magari facendo degli esempi ci aiuterebbe a capire) pensa di risolvere il problema oscurando tutto, contraddirebbe la missione stessa dell’INGV, che è quella di diffondere informazioni fondamentali per la pubblica incolumità.
Sarebbe sufficiente applicare ai dati sui terremoti una licenza “share alike ” con divieto di modifica ma libertà di utilizzo degli stessi. Poi, se il giornalista dice che in località tal dei tali si sta verificando uno sciame sismico con parecchi eventi di magnitudo tra 2. e 3.0 allora bisognerebbe chiedergli se sta tentando di fare solo la Cassandra o magari sensibilizzazione verso la cittadinanza, sulla quale bisognerebbe davvero concentrarsi senza inutili allarmismi, ma proprio favorendo approfondimenti critici e ponderati su quelle informazioni e dati che invece si vorrebbero “oscurare”.
In un’Italia che (finalmente) apre sempre più i dati, qualcuno pensa di chiuderli perché male utilizzati. Temere in generale l’informazione vuol dire darla vinta a quella superficiale, strillata. Il fatto stesso che le notizie sui terremoti siano aumentate negli ultimi anni (date un’occhiata al trend su Google, soprattutto dopo aprile 2009 ovviamente) non deve essere preso come motivo di cattiva informazione di per sé. Anzi, è un evento che va capitalizzato, perché finalmente la pubblica opinione si è svegliata sul rischio sismico, va solo “educata” ad essere più critica.
Il Ministero per la Pubblica Amministrazione e l’Innovazione ha emanato pochi giorni fa le Linee guida per i siti web delle pubbliche amministrazioni. Nel comunicato stampa ufficiale - in fondo al quale troviamo i link ai vari documenti – si afferma:
Il loro obiettivo è quello di suggerire criteri e strumenti utili alla razionalizzazione dei contenuti online, riducendo al tempo stesso il numero dei siti web pubblici ormai obsoleti. Tra gli obiettivi di una PA di qualità vi è infatti anche l’esigenza di fornire tramite web informazioni corrette, puntuali e sempre aggiornate nonché di erogare servizi sempre più fruibili a cittadini e imprese.
La cosa interessante è che si parla anche di dati aperti.Mi piace citare testualmente la quinta sezione, dedicata a “Criteri di indirizzo e strumenti per il trattamento dei dati, della documentazione pubblica e per la loro reperibilità”:
I dati e i contenuti prodotti e gestiti dalla pubblica amministrazione nell’esercizio delle proprie attività, rappresentano una risorsa strategica da un punto di vista sociale, politico, economico e culturale. Si tratta di un enorme patrimonio di conoscenza, che non sempre è facilmente accessibile da parte degli utenti. L’adeguata diffusione di queste informazioni (dati statistici e territoriali, rapporti socio-economici e ambientali, normativa, ecc.) può rappresentare un importante elemento per favorire la crescita economica e produttiva, la ricerca, l’innovazione, la competitività e per incoraggiare la partecipazione dei cittadini alla vita pubblica, dando loro la possibilità di valutare l’efficacia dell’attività dell’ente, nel rispetto dei principi di buon andamento e imparzialità.
Ma vediamo cosa c’è di concreto in queste linee guida.
Classificazione e semantica (Cap. 5.1)
Richiamando il Codice dell’Amministrazione Digitale (CAD), che delinea il principio di generale disponibilità in rete dei dati pubblici mediante la “possibilità di accedere ai dati senza restrizioni non riconducibili a esplicite norme di legge”, le linee guida definiscono le modalità attraverso le quali devono essere garantite reperibilità, interoperabilità e semplicità di consultazione dei dati stessi. Si parla di semantica!
I sistemi di classificazione utilizzati per le risorse dei siti web della pubblica amministrazione devono consentire l’interoperabilità semantica, ovvero la possibilità di individuare in modo omogeneo gli attributi che caratterizzano una risorsa (metadati) e i valori che gli attributi possono assumere (vocabolari) quando si descrivono i contenuti.
E si fa esplicito riferimento al Dublin Coreper quanto riguarda i metadati, si sottolinea la necessità di utilizzare “vocabolari” condivisi tra le PA per favorire l’integrazione delle loro risorse, facilitare e rendere più efficace la ricerca dei dati nei repository pubblici da parte dei cittadini. Repository che dovrebbero inoltre ispirarsi alla politica di accesso aperto ai documenti prodotti, secondo un modello simile a quello sviluppato in ambito accademico tramite il movimento Open Access. Si parla poi di classificazionesemantica multidimensionale a faccette, un paradigma dell’architettura dell’informazione piuttosto interessante, che è possibile approfondire in questo interessante articolo di Trovabile, rivista online al cuifeed RSS bisognerebbe assolutamente abbonarsi.
Formati aperti (Cap. 5.2)
Dopo una generica introduzione su “cos’è un formato aperto” e “perchè utilizzarlo”, il Ministero della PA si spinge a elencarne alcuni, che vi riporto qui sotto:
HTML/XHTML per la pubblicazione di informazioni pubbliche su Internet;
PDF con marcatura (secondo standard ISO/IEC 32000-1:2008);
XML per la realizzazione di database di pubblico accesso ai dati;
ODF e OOXML per documenti di testo;
PNG per le immagini;
OGG per i file audio;
Theora per file video.
Certo non sono esaustivi, e alcuni anche un pò limitanti sotto certi versi, ma è bene farsi intendere chiaramente proprio dalle PA, e gli esempi come questi sono necessari.
Contenuti aperti (Cap. 5.3)
E si arriva alle licenze di distribuzione dei contenuti, che il Ministero raccomanda garantiscano il riuso delle informazioni per fini non commerciali. A tale riguardo si spinge decisamente verso le licenze Creative Commons, raccomandando più in generale:
l’eventuale rilascio attraverso licenze l’uso che ne favoriscano la diffusione verso i cittadini e incoraggino il loro riutilizzo presso le imprese;
l’utilizzo di Internet come canale di comunicazione primario, in quanto il più accessibile e meno oneroso, attraverso il quale diffondere i flussi informativi;
la sicurezza dei dati;
l’utilizzo di formati aperti, standardizzati e interoperabili.
L’avvento del cittadino “hacktivista”
Queste linee guida contribuiscono a creare i presupposti affinchè la strada verso i dati aperti, liberi, accessibili (e speriamo grezzi) detenuti dalle PA venga spianata. Ma la loro emanazione non comporta in sè un cambiamento immediato e automatico, non almeno qui in Italia. Purtroppo nel nostro Paese, per raggiungere obiettivi concreti spesso è necessario ricorrere a provvedimenti normativi che impongano scadenze e stabiliscano in dettaglio gli aspetti tecnici, anche se questo ha i suoi pro e i suoi contro, come ha recentemente dimostrato il recepimento della Direttiva INSPIRE da parte del nostro Governo.
Il processo di riforma delle modalità con le quali le PA organizzano e rendono disponibili ai cittadini le informazioni che li interessano, passa infatti anche attraverso il ripensare il ruolo del cittadino come attivo e con diritto al loro accesso, oltre che attraverso una ridefinizione e standardizzazione degli aspetti tecnologici. E’ chiaro che rendere disponibili i dati con formati e contenuti aperti non basta. Dal suo canto, è lo stesso cittadino che deve rendersi consapevole di cosa può fare con i dati, c’è dunque bisogno di un suo ruolo attivo. Stiamo parlando del cittadino hacktivista.
Il termine “hacktivismo” deriva dalla fusione dell’inglese “hack” con “attivismo”. A questa idea o movimento si ispirano tutti coloro che ritengono fondamentale poter accedere liberamente ai dati e alle informazioni, per poterli poi utilizzare in svariati ambiti, andando oltre la loro semplice e diretta diffusione “tal quale”. L’hacker viene spesso associato erroneamente alla pirateria informatica, e confuso con il “cracker“, figura questa per molti versi negativa.
L’hacker è una persona che si impegna nell’affrontare sfide intellettuali per aggirare o superare creativamente le limitazioni che gli vengono imposte, non limitatamente ai suoi ambiti d’interesse (che di solito comprendono l’informatica o l’ingegneria elettronica), ma in tutti gli aspetti della sua vita. (da Wikipedia)
Insomma, da un lato abbiamo la PA che lentamente va verso la liberazione dei dati. Dall’altro il cittadino che non sempre è consapevole di quanto accade, o comunque della portata di una rivoluzione del genere. In mezzo ci siamo noi, blogger, professionisti e appassionati di dati, a cui piace “smanettare” con essi e creare nuovi oggetti, nuove applicazioni, “cablando” il dato economico e sociale con quello geografico, per dare vita a nuovi atlanti che sappiano raccontare il nostro mondo in modi nuovi. E il nostro desiderio ultimo è quello che chiunque abbia un interesse e un minimo di voglia di mettersi in gioco e imparare, possa farlo con il minore sforzo possibile. Spesso qui su TANTO presentiamo esperimenti basati su strumenti – in genere web – che consentono l’elaborazione e la rappresentazione dei dati in maniera molto intuitiva, che non richiedono capacità da “programmatore”. In fondo l’unico limite è la fantasia, la capacità di immaginare cosa poter fare con dei dati aperti, liberi e grezzi.
Il percorso è lungo, ma molti hanno già cominciato a camminare, e sapere che anche il Ministero della Pubblica Amministrazione e l’Innovazione ha deciso di rivestire un ruolo trainante, non può che far sperare per il meglio.
E’ appena trascorso un mese dall’entrata in esercizio del primo portale Open Data italiano, dati.piemonte.it, il quale è stato accolto favorevolmente dagli entusiasti sostenitori italiani del movimento Open Data ed addirittura classificato come portale governativo di prima categoria dal gruppo PSI (Public Sector Information) della Commissione Europea, in quanto garantisce l’accesso diretto ai dati, analogamente a data.gov.
Pur trattandosi di una versione beta, rappresenta indubbiamente una pietra miliare che dimostra la fattibilità dell’Open Data anche in Italia, nonostante le difficoltà di cui si accennava in questo recente post.
Ma vediamo in dettaglio di cosa si tratta. La pagina di accesso al portale si presenta con una grafica semplice ed accattivante su cui campeggia in primo piano il principio di fondo dell’iniziativa, una vera e propria dichiarazione di intenti in perfetto stile Government 2.0 ed in completo accordo con il senso della Direttiva 2003/98/CE del Parlamento europeo:
I dati pubblici sono di tutti
I dati in possesso della Pubblica Amministrazione sono un patrimonio informativo prezioso per la società e l’economia. La Regione Piemonte intende metterli a disposizione di cittadini e imprese per stimolare un nuovo rapporto fra pubblico e privato e favorire lo sviluppo di iniziative imprenditoriali.
A valle di questa esaltante premessa, seguono immediatamente pochi ma efficaci menù che rimandano ai contenuti del portale, dopodiché si va direttamente al sodo, accedendo direttamente ad un piccolo assaggio dei dati grezzi finora messi a disposizione, ad un estratto delle discussioni più recenti nel blog ed, infine, ad una sezione dedicata al riuso dei dati pubblici, dotata di una presentazione multimediale esplicativa sull’argomento.
Curiosando all’interno della sezione Dati, è possibile osservare che:
al momento sono presenti solo alcuni set di dati, tuttavia assicurano che a questi se ne aggiungeranno progressivamente degli altri, anche su richiesta degli utenti;
i dati grezzi sono descritti da metadati (informazioni sui dati);
sono resi disponibili in formato CSV e, di conseguenza, sono consultabili mediante un qualsiasi editor di testo;
sono aggregati a scala provinciale e, talvolta, comunale;
è facile verificare come siano indicizzati nei principali motori di ricerca e quindi siano di facile reperibilità anche all’esterno del portale;
infine, sono corredati di un contratto di licenza in cui si afferma chiaramente che la Regione Piemonte ne detiene la titolarità e ne “autorizza la libera e gratuita consultazione, estrazione, riproduzione e modifica [...] da parte di chiunque vi abbia interesse per qualunque fine, ovvero secondo i termini della licenza Creative Commons – CC0 1.0 Universal” (dominio pubblico).
Benissimo! Siamo certamente ancora distanti dalla mole impressionante di contenuti presenti in data.gov e data.gov.uk, tuttavia sono largamente rispettate in sostanza le indicazioni del Manifesto stilato da The Guardian, contenente a mio avviso un insieme minimo di principi pienamente condivisibile.
Il rilascio dei dati grezzi prodotti dalla PA – in formato aperto e con licenze che ne consentono il riuso – può produrre effetti benefici tanto nella trasparenza dei processi decisionali delle amministrazioni, quanto nella qualità dei servizi e nell’economia immateriale che vi ruoterebbe attorno. In particolare, i raw data costituiscono una risorsa dall’enorme potenziale nascosto, che è possibile far venire allo scoperto sfruttando le relazioni esistenti tra i dati in maniera originale e creativa in fase di produzione di nuovi servizi, magari ottenendo applicazioni assolutamente impensabili da parte degli stessi produttori di dati.
TANTO si occupa ormai da diverso tempo di sensibilizzare i suoi lettori verso l’utilizzo creativo ed appassionato dei vari strumenti del web 2.0 disponibili in rete, sottolineando come essi possano rappresentare un importante mezzo di sviluppo e di crescita sia per chi si occupa di geomatica, che per l’intera collettività. A tal fine, mi piace riportare alcuni stralci di un commento di Pietro Blu Giandonato relativo a questo interessante post:
esiste ormai sul web una messe di strumenti, applicazioni, servizi, fonti di dati formidabile, che sta crescendo vertiginosamente, e della quale non resta altro che coglierne le opportunità a piene mani. [...] In un paio d’ore, tra progettazione e realizzazione, è possibile tirare su un mashup potente, semplice e veloce per mettere in strada dati reperiti altrove da più fonti, o addirittura originali! [...] E’ necessario cambiare il paradigma della geomatica in Italia, passando dal GIS come unico strumento per la rappresentazione e gestione dei dati, arrivando a una sorta di “cloudmapping” realizzato con le decine di strumenti web 2.0 che esistono in giro. Una strada peraltro che richiede essenzialmente fantasia, creatività e intuito, che permette di costruire grandi cose con piccole azioni. Il problema è ovviamente immaginarle…
Così, mi sono chiesto: è possibile visualizzare i raw data piemontesi all’interno di una piccola applicazione di web mapping facendo in modo che i risultati delle interrogazioni siano dei bei grafici, piuttosto che noiosi numeri? Certamente! Ho scelto quindi i dati relativi alle dotazioni ICT presso i cittadini e ne ho effettuato il download accettandone le condizioni di utilizzo. Trattandosi di dati in forma tabellare, li ho semplicemente importati all’interno di un foglio di calcolo di Google Docs e poi pubblicati in modo tale che “chiunque abbia accesso a Internet possa trovarli e visualizzarli“, ottenendo la struttura seguente:
I dati prescelti possono essere analizzati secondo differenti chiavi di lettura (query). Ad esempio, è possibile risalire alle dotazioni ICT per provincia e per anno, così come alla singola dotazione per provincia negli anni 2005-2009. Mi sono posto pertanto il seguente obiettivo: individuare lo strumento web 2.0 più agevole per interrogare la tabella come all’interno di un database, in modo da poter estrarre di volta in volta solo i dati necessari per ottenere il grafico corrispondente ad una particolare query. Dopo vari tentativi con Yahoo! Pipes ed YQL (Yahoo! Query Language), peraltro abbastanza ben riusciti (li trovate qui), ho individuato nel Query Language delle Google Visualisation API un’alternativa relativamente semplice ed efficiente, tale da scongiurare la necessità di dover configurare un web server e risolvere le beghe informatiche dovute alle cross-domain restrictions. Si tratta praticamente delle stesse API che consentono di ottenere dei grafici a partire dai dati.
A proposito della componente geografica, ho deciso di utilizzare come client OpenLayers (di cui si parla spesso qui su TANTO) per via della sua enorme versatilità e semplicità d’uso, un servizio TMS (Tile Map Service) di OpenStreetMap come layer di base ( i “linked data” per eccellenza!), ed i confini ISTAT delle province reperibili qui, utilizzabili per scopi non commerciali a patto di citarne la fonte. Questi ultimi sono stati convertiti nel formato GML ed opportunamente trasformati nel sistema WGS84 (EPSG:4326).
In definitiva, il funzionamento dell’applicazione è molto semplice ed intuitivo: scelta una delle opzioni (query) poste in basso, per interrogare una delle province piemontesi occorre semplicemente cliccare sulla corrispondente entità vettoriale che la rappresenta in mappa. Comparirà successivamente un popup contenente la denominazione della provincia, il titolo del grafico ed il grafico stesso (dotato di legenda, se necessaria). Questo è il mashup risultante:
Per concludere, ho alcune interessanti novità da segnalare. Nel frattempo, negli altri Paesi il modello di Open Government procede inesorabilmente la sua marcia. In particolare, nel Regno Unito è stata appena istituita una Commissione per la Trasparenza nel Settore Pubblico con il compito di guidare l’agenda sulla Trasparenza del Governo, rendendola un elemento cardine di ogni sua attività e assicurando che tutti i Dipartimenti presso Whitehall rispettino le scadenze fissate per il rilascio di nuovi dataset pubblici. Inoltre, è responsabile della definizione di standard sui dati aperti per l’intero settore pubblico, recependo ciò che è richiesto dal pubblico e assicurando l’apertura dei dataset più richiesti. Un primo importante compito della Commissione attualmente in itinere consiste nella definizione dei Principi di Trasparenza dei Dati Pubblici mediante il diretto coinvolgimento degli utenti.
Un’altra novità di rilievo è la nascita del portale italiano CKAN, un progetto ad opera della Open Knowledge Foundation. Si tratta di un catalogo di dati e contenuti aperti creato allo scopo di facilitarne la ricerca, l’uso e il riuso, al quale è possibile contribuire liberamente, fornendo informazioni sulle banche dati (metadati), quali l’URL della risorsa, l’autore e il soggetto che detiene la titolarità dei dati, la versione e la licenza d’uso.
Sempre in Italia, un’altra notizia che fa ben sperare: il Ministro per la Pubblica Amministrazione e l’Innovazione, durante un’intervista a Frontiers of Interaction 2010, ha annunciato la creazione di un data.gov italiano entro la fine dell’anno. In particolare, la pubblicazione dei dati pubblici dovrebbe servire da contromisura ai fenomeni di corruzione legati agli appalti. Finalmente!
Esistono delle svolte epocali che lasciano il segno nel mondo dell’informazione geografica. In passato, una di queste è scaturita sicuramente dall’Executive Order 12906, emanato nel 1994 dall’allora presidente degli USA Bill Clinton, che ha portato alla costituzione della National Infrastructure of Spatial Data (NSDI) e senza il quale forse oggi non esisterebbe l’ossatura portante dell’infrastruttura di dati spaziali europea INSPIRE.
Un documento di portata eccezionale molto recente è, invece, il Memorandum sulla Trasparenza e l’Open Government di Barack Obama (gennaio 2009) che, sancendo i principi dell’Open Government (trasparenza, partecipazione e collaborazione), ha prodotto la nascita del portale governativo americano data.gov al fine di incrementare l’accesso pubblico ai dati prodotti dai vari dipartimenti del governo federale, dati che sono rilasciati rigorosamente in formato aperto (Open Data).
Altro provvedimento scaturito dal memorandum presidenziale è l’Open Government Directive del dicembre 2009 (già citata da Sergio Farruggia nel suo ultimo post), che definisce nel dettaglio gli adempimenti dei dipartimenti esecutivi e delle agenzie per l’implementazione dei suddetti principi secondo scadenze temporali molto ristrette (solo 45-60 giorni!).
Una forte carica di innovazione era d’altronde già presente nell’illuminante talk di Tim Berners-Lee al TED 2009 (di cui TANTO si era occupato qui), in cui si auspicava un nuovo cambio di prospettiva della rete delle reti da attuarsi mediante il rilascio dei raw data: solo ponendo in relazione tra loro i dati grezzi, ottenendo i linked data, è possibile portare alla luce il loro enorme potenziale inesplorato, ovvero quel valore aggiunto implicitamente contenuto in essi. Era nato dunque l’Open Data Movement.
Tali eventi non hanno tardato a sortire i loro effetti in giro per il mondo. Da allora stiamo assistendo al proliferare di altre iniziative in tal senso, tra le quali spiccano i portali del Regno Unito, della Nuova Zelanda e dell’Australia. Inoltre, anche la Banca Mondiale (si veda il post di Pietro Blu Giandonato) e, sempre in UK, l’Ordnance Survey hanno recentemente liberato una cospicua parte dei dati in loro possesso al fine di promuoverne il riuso.
Brown asked: “What’s the most important technology right now? How should the UK make the best use of the internet?” To which the invigorated Berners-Lee replied: “Just put all the government’s data on it.” To his surprise, Brown simply said “OK, let’s do it.”
La direttiva sull’Open Government rappresenta non solo un importante tassello strategico nel disegno della trasparenza politica obamiana, ma produce concretamente anche la possibilità di sviluppare business, innescando “una competizione sulla qualità dei servizi e delle applicazioni prodotte, che genererebbe sicuramente una ripresa di tutto il settore dell’economia immateriale“, come spiega Gianluigi Cogo nell’approfondimento di Nóva dedicato all’Open Data.
La liberalizzazione dei dati secondo standard aperti ha infatti scatenato iniziative come Apps for democracy che, nell’arco di un mese, ha prodotto la realizzazione di ben 47 applicazioni di pubblica utilità per il web, iPhone e Facebook con un ritorno economico sull’investimento stimato intorno al 4000%. Per comprendere meglio le potenzialità derivanti dall’uso degli open data, un interessante caso di studio ci viene offerto dal Canada, dove è stata scoperta una maxi frode fiscale che ha coinvolto le maggiori società di beneficenza del Paese per un importo pari a ben 3,2 miliardi di dollari.
E’ possibile quindi realizzare un primo punto della situazione del movimento globale Open Data, così come ha fatto Tim Berners-Lee al TED 2010 (il talk è sottotitolato anche in italiano):
L’esempio di utilizzo degli Open Data forse più emblematico presentato da Berners-Lee è quello della mappa disegnata da un avvocato per dimostrare la forte correlazione esistente tra le case occupate da bianchi e quelle collegate all’acquedotto, risultato della discriminazione razziale verso i neri a Zanesville (Ohio, USA), che ha convinto il giudice a condannare la contea ad un risarcimento di oltre 10 milioni di dollari. Tale applicazione è la semplice dimostrazione di quali interessanti informazioni sia possibile ottenere, ponendo in relazione gli Open Data, in settori quali ad esempio l’epidemiologia geografica (a tal proposito si veda questo post).
Inoltre, proprio in questi giorni, è trascorso il primo anniversario di data.gov ed è possibile trarne un primo entusiasmante bilancio direttamente dal CIO Vivek Kundra sul blog della Casa Bianca.
Di fronte all’evidente pragmatismo del mondo anglosassone, probabilmente il lettore si chiederà cosa si sta facendo adesso o si farà in futuro in Italia. In tal senso, si ritiene opportuno segnalare questa intervista ad Ernesto Belisario, avvocato ed esperto in diritto delle nuove tecnologie, secondo il quale la pubblicazione e l’accesso ai dati pubblici in Italia è attualmente una sorta di percorso ad ostacoli. In particolare, egli sostiene che da un lato ci sono problemi a livello organizzativo:
la Pubblica Amministrazione, fatte le dovute eccezioni, generalmente non è pienamente consapevole del consistente patrimonio di dati in suo possesso;
soltanto una minima parte dei dati in possesso della PA è disponibile in formato digitale e, nei casi in cui lo è, non sempre è garantita l’interoperabilità;
inoltre, i dati non sempre sono acquisiti con una licenza tale da consentirne la pubblicazione ed il riuso.
Dall’altro, esistono anche evidenti limiti a livello normativo:
la legge generale sul procedimento amministrativo che, a differenza degli USA in cui ogni cittadino – in quanto tale – ha il diritto di accesso ai dati pubblici (right to know), prevede il possesso di un interesse specifico e qualificato per poterlo fare (need to know);
una normativa sulla privacy troppo rigorosa che limita notevolmente la trasparenza e l’accesso ai dati, impedendone di fatto l’indicizzazione da parte dei motori di ricerca;
il Codice dell’Amministrazione Digitale che, pur avendo una portata rivoluzionaria, in quanto consentirebbe alla PA di rendere disponibili i propri dati in formato aperto, tuttavia non va a modificare la legge sulla trasparenza amministrativa e né la legge sulla privacy.
In definitiva, c’è molto lavoro da fare, ma qualcosa comincia a muoversi. Recentemente stiamo assistendo all’apertura del PCN (futuro geoportale nazionale di INSPIRE) nei confronti del movimento OpenStreetMap (si veda il seguente post) e alla nascita del primo portale Open Data italiano, dati.piemonte.it. Sicuramente, non è finita qui!
Lezioni online per spiegare scienza e tecnologia Oilproject organizza con l’Istituto Italiano di Tecnologia una serie di lezioni divulgative su neuroscienze, nanotecnologie, farmacologia e macchine intelligenti, per raccontare al grande pubblico lo stato dell’arte della ricerca di base e applicata. Qui tutti i dettagli. Leggi tutto... (0)
Il GFOSS Day 2011 è a Foggia I prossimi 24 e 25 novembre l’Università degli Studi di Foggia ospiterà il GFOSS DAY 2011, organizzato come di consueto dall’Associazione Italiana per l’Informazione Geografica Libera GFOSS.it Leggi tutto... (1)
Mappali, denunciali e... tassa.li Tassa.li è una interessante startup realizzata da un gruppo di giovani tecnologi, con l’intento di rendere facile la denuncia di esercizi commerciali che non rilasciano il regolare scontrino fiscale. E in un periodo nero come questo, molta gente avrà una gran voglia di partecipare. Grazie a una applicazione disponibile sia per iOS che Android, è infatti possibile in pochi clic geotaggare l’esercizio e riportare la somma dello scontrino non emesso. Il tutto in maniera assolutamente anonima. E questi ragazzi dimostrano di vedere molto lontano, perché presto rilasceranno i dati raccolti in forma totalmente aperta e libera. (7)
TANTO non rappresenta una testata giornalistica ai sensi della legge n. 62 del 7.03.2001, in quanto non viene aggiornato con una precisa e determinata periodicita'. Pertanto, in alcun modo puo' considerarsi un prodotto editoriale.