Archivio del mese di settembre, 2010

27 settembre, 2010 | di

Strada dell'appennino bolognese - Lorenzo Perone - 16.11.2008

Strada dell'appennino bolognese - Lorenzo Perone - 16.11.2008

Lavorare con risorse economiche sempre minori costringe ad operare delle scelte, a volte difficili, nelle strategie da adottare nel servizio manutenzione strade della Provincia di Bologna, ambito professionale nel quale sto operando. Ne scaturisce la consapevolezza che l’individuazione delle priorità degli interventi non può prescindere dalla definizione di una maglia strategica all’interno del complesso delle strade provinciali.

La rete delle strade gestite dalla Provincia di Bologna si estende per circa 1400 Km, con problematiche specifiche legate alla differenza del contesto tra pianura ed Appennino. La definizione di una maglia strategica è subordinata alle condizioni per le quali viene valutata, nel nostro caso abbiamo definito una maglia strategica in condizioni di esercizio ed una in condizioni di emergenza. Quest’ultima attualmente è riferita ad uno scenario legato ad eventi di tipo sismico e ad incidenti rilevanti delle industrie definite “a rischio”.

Gli ambiti applicativi in cui è vantaggioso definire una rete strategica sono molteplici. È utile in applicazioni quali la manutenzione programmata dei ponti (BMS Bridge management system), la gestione e la programmazione del servizio invernale di sgombero neve e risulta essenziale nel verificare il livello di servizio della rete in condizioni di emergenza sismica o idrogeologica.

Lo scopo di questo post e dei successivi che intendo scrivere sull’argomento, è quello di condividere una metodologia di lavoro, cogliendo l’occasione per migliorarne la qualità attraverso un confronto con la comunità. Data la complessità dell’analisi e la difficoltà di dettagliarla in un unico post ho scelto di iniziare a scrivere di come abbiamo individuato dei poli generatori di domanda/offerta di trasporto, in seguito definiti target, utilizzati nelle analisi dei percorsi che hanno definito le reti strategiche, in condizioni di emergenza e di esercizio.

“La manutenzione delle opere d’arte stradali, e dunque dei ponti, deve essere fondata, oltre che su concezioni tecniche, su diversi concetti di ordine economico, atti a definire i costi che è necessario sostenere durante l’intera vita utile dell’opera. Compito degli enti gestori della rete stradale risulta quello di programmare su basi razionali e oggettive una politica manutentiva che giunga alla definizione di una classifica delle priorità manutentive e che concili la necessità di mantenere un alto livello di funzionalità e di servizio della rete con l’esigenza di ottimizzare le risorse. A supporto di tale indirizzo sono stati sviluppati strumenti che in letteratura prendono il nome di Bridge Management System (BMS) e riscontrano una sempre maggiore diffusione. L’applicazione della metodologia proposta prevede l’assegnazione ad ogni ponte ed arco stradale di un punteggio (variabile da 0 a 100) che indica la Valutazione Complessiva (VP) circa la priorità manutentiva del manufatto. L’assegnazione dell’indice VP di un ponte si ottiene tramite la combinazione lineare valori riferiti a tre macroparametri: – Importanza funzionale – macroparametro IF – Condizione strutturale – macroparametro CS – Rischio sismico – macroparametro RS”

Estratto da : “I ponti della Provincia di Bologna, un metodo per la valutazione dello stato manutentivo e della vulnerabilità sismica” – Ing. Pierluigi Tropea (U.O. Progettazione e direzione lavori, Servizio Manutenzione strade, Settore Lavori Pubblici, Provincia di Bologna)

Per la definizione del macroparametro Importanza funzionale che si riferisce alla funzione che il ponte e il tratto stradale ad esso collegato svolgono in situazione di normale esercizio ed in situazione di emergenza, nell’ambito della mobilità e degli aspetti ad essa collegati, abbiamo effettuato una complessa analisi, basata sullo studio dei percorsi. Per l’individuazione dei percorsi che concorrono a definire la condizione di esercizio e di emergenza sono stati individuati dei target strategici. Tra questi uno riguarda i baricentri delle aree a maggiore densità edilizia. L’utilizzo dei dati censuari e di mappa della banca dati catastale, disponibile attraverso i servizi di SIGMATER (Servizi Integrati Catastali e Geografici per il Monitoraggio Amministrativo del territorio), ha consentito la definizione di una mappa della densità edilizia che verrà aggiornata periodicamente permettendo così una stima aggiornata e coerente dell’indice di Importanza Funzionale.

La banca dati SIGMATER, utilizzata nelle analisi, presenta una discreta complessità, ma offre numerose possibilità di analisi trasversali. Senza l’utilizzo dei dati Sigmater un’analisi “dinamica” di questo tipo non avrebbe potuto avere luogo, se non con costi e impegno decisamente maggiori.

Partendo dal censuario della banca dati catastale si individuano le categorie catastali appartenenti agli immobili a destinazione ordinaria, da cui in maniera più o meno diretta si può determinare la superficie ralativa ad ogni unità immobiliare, individuata mediante foglio mappale e subalterno. I gruppi di categorie analizzati sono A, B e C.

Valori della superficie media di un vano per gli immobili del gruppo A

Tabella immobili gruppo A

Gli immobili della categoria A (Abitazioni) hanno la consistenza espressa in metri quadri (per gli immobili più recenti) o in vani. Per riportare la consistenza in vani ad una superficie si è stimato un valore medio, per ogni elemento del gruppo A che presentava entrambi i valori.

Per gli elementi del gruppo B la consistenza è espressa in volume (metri cubi) o, per gli edifici più recenti, in termini di superficie. In questo caso, per riportare la consistenza in volume alla superficie corrispondente, si è calcolata da ogni elemento del gruppo B che presentava entrambi i valori, una stima dell’altezza media, con i seguenti risultati.

Valori dell'altezza media per gli immobili del gruppo B

Tabella immobili gruppo B

Gli immobili del gruppo C hanno la consistenza espressa in termini di superficie e quindi non è stato necessario operare nessuna particolare stima. Ottenuti i valori complessivi di superficie per ciascuna particella catastale, si è determinato in centroide della stessa e si è calcolata la densità media di edificato per ettaro. Il metodo utilizzato è la “Kernel density” con un raggio di ricerca di circa 2 Km.

Densità dell'edificato dalla banca dati catastale

Densità dell'edificato dalla banca dati catastale

Questo tipo di analisi permette di mantenere alto il valore di densità sul centroide della particella catastale ed al contempo di avere un’influenza reciproca delle aree edificate in un ambito spaziale più ampio (raggio di ricerca). Se confrontiamo la mappa delle densità ottenute, con i centri abitati derivati dal Piano Territoriale di Coordinamento Provinciale (PCTP) si nota una sostanziale coerenza.

Confronto tra la densità edilizia calcolata dalla banca dati catastale e i centri abitati del PTCP

Confronto tra la densità edilizia calcolata dalla banca dati catastale e i centri abitati del PTCP

Da una mappa di dettaglio dell’area sud, si può vedere che esiste una zona con elevata densità edilizia che non risulta perimetrata come centro abitato. Si tratta del Centro ricerche ENEA del Brasimone.

Particolare dell'area del Brasimone

Particolare dell'area del Brasimone

Questo tipo di analisi permette quindi una lettura del territorio coerente con il nostro scopo, cioè permette di valutare la densità del patrimonio edilizio in maniera complessiva, senza il solo riferimento ai centri abitati.

Dovendo poi scegliere un numero adeguato di target, cioè di aree ad elevata densità edilizia, rappresentativo della realtà provinciale, abbiamo operato un taglio alla mappa delle densità edilizie alla soglia di 500 mq/ha. Per avere un’idea dei risultati che si ottengono con valori diversi è riportata una mappa di confronto.

Confronto tra le soglie minime di densità edilizia

Confronto delle aree con soglia a 250, 500 e 750 mq/ha

Dalla mappa di confronto si evidienzia che utilizzando la soglia di 500 mq/ha si ottengono delle aree con isole delimitate, utilizzando la soglia di 250 mq/ha le zone con elevata densità formano degli agglomerati quasi continui. la soglia a 750 mq/ha risulta, secondo la nostra valutazione, non rappresentativa perché esclude tutta l’area appenninica.

Mappa della densita edilizia con soglia a 500 mq/ha

Mappa della densità edilizia con soglia a 500 mq/ha

I target sono definiti dal baricentro dei poligoni con densità edilizia maggiore della soglia, integrati dai baricentri di quelle aree che pur avendo una conformazione circoscritta, appartenevano ad un unico poligono con diverse propaggini.

Target delle aree a elevata densità edilizia

Target delle aree a elevata densità edilizia

I target così ottenuti entreranno a far parte degli elementi funzionali all’analisi dei percorsi, per la definizione dello scenario di esercizio e di emergenza di cui avremo occasione di parlare prossimamente.

16 settembre, 2010 | di

Lo so, sembra soltanto un titolo ad effetto, ma in realtà è molto più descrittivo di quanto si possa pensare. Nel Maggio del 2009 Pietro ci ha infatti raccontato di “un ambizioso progetto con il quale diffondere la consapevolezza della coscienza geografica”, tramite la produzione di 8 video brevi e di un documentario di 60 minuti.

Il nome di quel progetto è proprio  “Geospatial Revolution Project” ed è uscito finalmente il bellissimo primo episodio. Agli esperti di geomatica non sembrerà che ci sia nulla di nuovo, ma l’obiettivo del progetto è altro:

The mission of the Geospatial Revolution Project is to expand public knowledge about the history, applications, related privacy and legal issues, and the potential future of location-based technologies.

Spiegare bene un concetto, con parole comprensibili a tutti, è di per se qualcosa di  rivoluzionario e se “il buon giorno si vede dal mattino”, prevedo un futuro molto soleggiato. Nel film ci sono molte facce note e potenti di questo mondo, ma voglio sottolineare che il capitolo più lungo e più bello di questo primo episodio – denominato “Why We Need It” – è dedicato quasi interamente all’importanza che l’informazione spaziale e il suo impiego corretto hanno nella gestione di drammi umanitari, come quello conseguente al terremoto di Haiti, del 12 Gennaio del 2010. In quell’occasione i terminali mobili (telefonini e GPS), i social network e progetti prodigiosi come Ushahidi e OpenStreetMap hanno contribuito al salvataggio di molte vite nel dopo terremoto.

Prima di chiudere due promesse. La prima è quella già lanciata da Pietro, e che confermo: vi daremo conto dei prossimi episodi e proveremo a farvene sempre una brevissima sintesi. La seconda è che scriveremo almeno un post interamente dedicato a Ushahidi, in cui descriveremo la piattaforma tecnologica su cui si basa, come si installi e si gestisca.

Ci sarebbe altro da dire, ma sarà per la prossima. Buona visione!!!

13 settembre, 2010 | di

Agosto è trascorso e, com’è consuetudine, senza attendere il ritorno degli amanti delle vacanze settembrine, anche il Consiglio Scientifico ASITA ritorna ai propri compiti. Gli autori hanno ormai inviato gli articoli e così potranno essere definiti i programmi delle singole sessioni (orali e poster) della Conferenza.

Il nostro primo post sembra essere stato apprezzato. GEOMEDIA ne ha tratto un comunicato per il suo sito (grazie). Sono pervenuti due commenti di cui diamo conto nel seguito. Chi il ghiaccio (quello vero) non lo vuole rompere, anzi si adopera per conservarlo è… ma continuate a leggere.

Massimo Zotti e Giovanni Biallo hanno apprezzato l’iniziativa e hanno espresso la speranza che si prosegua, anche dopo la conferenza. Certamente il database gestito dal Consiglio Scientifico ASITA consentirà di fornire altri dati, su vari aspetti della produzione scientifica nazionale riguardante il nostro settore. A evento concluso, prevediamo di divulgare informazioni sui visitatori della Conferenza e forse questo interesserà ancora di più le aziende espositrici. Possiamo immaginare una distribuzione per settore di appartenenza, piuttosto che una per aree d’interesse o, ancora, rispetto alla posizione in azienda o nell’ente di appartenenza. Siccome siamo un po’ fanatici potremo presentare pure una distribuzione per provenienza geografica! Ciò sarà fattibile con il contributo della segreteria, che ci supporta con la sua presenza tanto discreta, quanto efficace. Ora che “il ghiaccio è stato rotto” speriamo di ricevere altri contributi e suggerimenti dal mondo delle imprese, così come dai visitatori (del passato e, ci auguriamo, dell’edizione 2010).

Dobbiamo invece deludere Massimo (e anche Giovanni e forse molti altri): anche quest’anno per prendere parte ai lavori della Conferenza (non per visitare l’esposizione) sarà necessario pagare l’iscrizione. Il Consiglio Scientifico non ha competenze sugli aspetti economici dell’evento, però può certamente esprimere suggerimenti e, soprattutto, come sta tentando di fare attraverso questo blog, anche aiutare le diverse componenti della nostra comunità a indirizzare le istanze entro i canali di comunicazione e gestionali della vita associativa. E’ un invito appassionato perché, non solo prendendo spunto dalle pagine di TANTO, le questioni, le proposte e le critiche sulla Conferenza siano discusse e approfondite all’interno delle nostre associazioni e trovino poi possibilità di sintesi proprio presso la Federazione. Come Consiglio vorremmo allora provocare qualche ulteriore commento su questo argomento. Siamo sicuri che soltanto eliminando la quota d’iscrizione aumenterebbe la partecipazione alla conferenza? Chi ha interesse a seguire alcune sessioni concentrate in una giornata, e vuole visitare nello stesso giorno l’esposizione, deve sostenere un costo di 100 euro, importo che un lavoratore pubblico o privato non dovrebbe avere difficoltà a farsi rimborsare dal proprio superiore. Caso mai è il costo del viaggio, l’assenza per una (o più) giornate dal posto di lavoro che saranno messe sul piatto della bilancia dal libero professionista, come dal dipendente (e dal suo manager!). Chissà un’edizione futura della Conferenza non avrà più barriere all’ingresso… ma dovremo immaginare anche qualcosa “per l’altro piatto”. Ad esempio – allacciandoci all’opinione di Biallo circa i motivi della mancata presentazione di contributi sui Location-Based Services , sulla Location Intelligence, ecc.- non dover più (solo) migrare in altri contesti per sentire parlare di questi e tanti altri temi.

Ritorniamo su alcuni temi del programma.  Giuseppe Borruso, più di altri del Consiglio, ha seguito una tra le “novità” dell’edizione 2010 della Conferenza ASITA: la presenza non indifferente di contributi legati alla cartografia storica. <<Ricordando alcune cifre, della sessantina di contributi etichettati esplicitamente come legati alla “cartografia” -sottolinea Giuseppe- un terzo (20) fanno riferimento alla cartografia storica, in buona parte facenti capo a geografi provenienti dalle università italiane, da anni riuniti in ricerche su questi temi e sull’integrazione delle fonti informative storiche con gli strumenti di informazione geografica (segnatamente GIS e telerilevamento). Ciò ha spinto il CS a decidere di dedicare a tali temi una sessione orale, nonché uno spazio poster particolarmente nutrito. È forse superfluo ricordare che le fonti cartografiche storiche, o comunque pre-era digitale, riassumevano in un unico strumento – la carta – dati, informazioni e conoscenza del territorio, coniugando segni grafici, testi e rappresentazioni pittoriche, di fatto, costituendo veri e propri strumenti d’informazione geografica. Tale “novità” (volutamente virgolettata!) e presenza segnano quindi un importante punto di contatto di visioni del territorio inevitabilmente sempre più interrelate e capaci di accrescersi vicendevolmente>>.

Ritorniamo al ghiaccio, quello vero. Maria Antonietta Dessena anticipa un’altra interessante iniziativa inserita in questa edizione della Conferenza. <<Il richiamo al “ghiaccio” di Sergio trova quest’anno un’interessante collocazione nel workshop dedicato alle terre estreme ed ai ghiacciai di grande attrattiva e suggestione, nonché importanti risorse naturali e indicatori ambientali delle variazioni climatiche. Anche quest’anno il gruppo geologi del CS e l’Associazione Italiana Telerilevamento intendono sensibilizzare il pubblico su temi d’attualità e su interessanti ricerche, passando tra le diverse discipline della geomatica (cartografia, telerilevamento ecc.). Nel passato le sessioni speciali si erano concentrate sul dissesto idrologico e per due anni consecutivi sulle problematiche delle coste, tema sentito su buona parte della nostra penisola. Gli interventi, che si susseguiranno con chairman il Presidente di AIT Ruggero Casacchia, verteranno su esperienze concrete e risultati di ricerche in corso dalle Alpi al K2, fino alle Svalbard nel Mar Glaciale Artico. Il “ghiaccio” è ora quasi rotto e visto il successo delle precedenti edizioni venite al workshop numerosi>>.

Il Consiglio Scientifico di ASITA

6 settembre, 2010 | di

La notizia è di quelle che corre il rischio di passare inosservata:

Terremoti, l’Ingv: «Stiamo pensando di smettere di informare sulle scosse»
Il presidente Boschi: «I nostri dati utilizzati per arrivare a conclusioni che non stanno né in cielo né in terra»
MILANO – L’Ingv sta meditando di smettere di rendere pubblici i dati sui terremoti per evitare che siano travisati. Lo afferma Enzo Boschi, presidente dell’istituto Nazionale di Geofisica e Vulcanologia, commentando il messaggio di Guido Bertolaso al congresso della Società geologica italiana.
Corriere.it del 06 settembre 2010

Ed ancora:

Terremoti, interviene Boschi: “Valutiamo stop alle notizie”
Il direttore dell’Istituto nazionale di Geofisica e Vulcanologia pensa a oscurare il sito e tutti i dati relativi agli eventi sismici in Italia. “Vengono usati per arrivare a conclusioni che non stanno né in cielo né in terra”. Bertolaso aveva parlato di “profeti di sventura”.
ROMA – Niente dati sulle sequenze sismiche a disposizione di tutti sul web, anche quelle inavvertite dalla popolazione. Niente cartine geologiche, storico di eventi 1, niente di niente. Stop alle informazioni.
Repubblica.it del 06 settembre 2010

La notizia in sé pone due ordini di problematiche:

  1. Il Presidente dell’INGV può decidere autonomamente di precludere l’accesso pubblico ai dati raccolti dall’Istituto?
  2. Precludere l’accesso pubblico a tali dati corrisponde ad una scelta sensata?

Iniziamo dalla prima delicata questione.

L’Istituto Nazionale di Geofisica e Vulcanologia è stato istituito con il decreto legge n.381 del 29/09/99.
L’art. 2 del detto decreto legge recita:

Art. 2. – Attivita’ dell’INGV
1. L’INGV:
[...]
f) rende disponibili per tutta la comunita’ scientifica i dati raccolti dalle proprie reti di monitoraggio, nazionale e locali.
[...]

Possiamo dire che rientra nella funzione dell’INGV la ricerca, il monitoraggio ma anche la diffusione delle notizie e degli allertamenti sui fenomeni sismici nazionali.
In tal senso sembrerebbe che non sia nella piena e libera disponibilità del Presidente dell’INGV prendere una scelta di tal genere, ovvero quella di oscurare sic ed simpliciter il sito informativo e, quindi, di non rendere pienamente pubblici i dati raccolti.

Eppure una certa lettura del citato articolo (disponibili per tutta la comunita’ scientifica) unitamente al combinato disposto con il DECRETO LEGISLATIVO 24 gennaio 2006, n. 36 (attuativo della direttiva 2003/98/CE relativa al riutilizzo di documenti nel settore pubblico), porterebbe a conclusioni diametralmente e drammaticamente opposte.
In sé la Direttiva Europea aveva lo scopo di liberalizzare l’accesso alle molteplici informazioni prodotte e detenute dalle Pubbliche Amministrazioni (dai dati di tipo economico a quelli scientifici, da quelli geografici ai dati turistici).
Tali informazioni, infatti, sono considerate come un’importante materia prima da utilizzare per i servizi e prodotti a contenuto digitale, tali da poter essere riutilizzati al fine di contribuire alla crescita economica e scientifica ed anche alla creazione di posti di lavoro. “La Direttiva invitava gli Stati membri a favorirne il riuso, incoraggiando gli enti pubblici a rendere disponibili i documenti e le informazioni in proprio possesso, a condizioni eque e trasparenti, a tutti i soggetti interessati al loro riutilizzo“.
Non possiamo dire che il D.L. abbia pienamente incarnato lo spirito della direttiva, anzi…

Se in Italia  è vero che vige la legge 241 del 1990 sul procedimento amministrativo, è altresì vero che tale legge assegna il diritto di accesso ai documenti amministrativi solo ed esclusivamente a chi ha una situazione giuridicamente tutelata e collegata al documento richiesto.  D’altro canto il Codice dell’amministrazione digitale del 2005 ha obbligato la pubblica amministrazione e rendere disponibili i dati in suo possesso in formato digitale, ma non ha inserito alcun obbligo alla trasparenza.

Eppure ancora oggi in Italia ci si scontra con logiche che non esiteremo a definire aberranti.

Resta quindi da chiarire quale sia realmente il dato pubblico cui tutti hanno diritto di accesso e la cui pubblicazione non può essere arbitrariamente inibita (come i dati sull’inquinamento atmosferico o marino, i dati dell’amministrazione pubblica, i dati sulla sanità, l’anagrafe pubblica degli eletti, etc.) e quali siano, d’altro canto, i meccanismi per tutelare il libero accesso a tali dati.

Qualcosa in Italia si sta muovendo, ad esempio lo statuto della Regione Toscana all’articolo 54 prevede “tutti hanno diritto di accedere senza obbligo di motivazione ai documenti amministrativi, nel rispetto degli interessi costituzionalmente tutelati e nei modi previsti dalla legge”. Il Codice dell’Amministrazione Digitale a partire dal 2005, all’art. 50, ha introdotto un importante principio di disponibilità del dati pubblici disponendo che gli stessi devono essere formati, conservati, resi accessibili e disponibili con l’uso delle ICT.

Quid iuris nel caso di specie?

Il ragionamento che ci sentiamo di sostenere è, sinteticamente, il seguente:

  • L’attività dall l’INGV è una attività di rilevanza pubblica, finanziata con denaro pubblico;
  • I dati che raccogli l’INGV hanno una rilevanza scientifica e sociale;
  • I dati raccolti dall’Ente, pertanto, devono essere resi pubblici ed in formato aperto;
  • L’INGV non può arbitrariamente smettere di fornire tali dati, se non attraverso procedure ben definite in accordo con gli altri enti istituzionali competenti (Protezione Civile e Ministeri competenti).

Alcune considerazioni vanno fatte poi a sostegno della libertà di informazione. Asserire che per evitare strumentalizzazioni sia opportuno censurare alla fonte i dati ricorda una ben nota vicenda sulla “necessità” di impedire che le intercettazioni telefoniche possano essere “usate male”. Se una informazione o un dato sono legittimamente resi disponibili al pubblico – e qui stiamo parlando di dati di fondamentale importanza per la pubblica incolumità – è questo stesso che, se li utilizza per sostenere delle tesi, per supportare notizie originali, o finanche per realizzare applicazioni – come abbiamo fatto proprio con i dati INGV noi di TANTO – se ne assume la piena e totale responsabilità.

Attenzione, un conto è la manipolazione del dato, ben altro il suo utilizzo così com’è nell’ambito di contesti anche originali, quali articoli, notizie, applicazioni. Manipolare un dato sui terremoti vuol dire aumentare o diminuire la magnitudo di un sisma, la sua localizzazione, il suo tempo di occorrenza, e chiunque lo facesse sarebbe certamente un criminale. Ma se il prof. Boschi per timore di strumentalizzazioni (magari facendo degli esempi ci aiuterebbe a capire) pensa di risolvere il problema oscurando tutto, contraddirebbe la missione stessa dell’INGV, che è quella di diffondere informazioni fondamentali per la pubblica incolumità.

Sarebbe sufficiente applicare ai dati sui terremoti una licenza “share alike ” con divieto di modifica ma libertà di utilizzo degli stessi. Poi, se il giornalista dice che in località tal dei tali si sta verificando uno sciame sismico con parecchi eventi di magnitudo tra 2. e 3.0 allora bisognerebbe chiedergli se sta tentando di fare solo la Cassandra o magari sensibilizzazione verso la cittadinanza, sulla quale bisognerebbe davvero concentrarsi senza inutili allarmismi, ma proprio favorendo approfondimenti critici e ponderati su quelle informazioni e dati che invece si vorrebbero “oscurare”.

In un’Italia che (finalmente) apre sempre più i dati, qualcuno pensa di chiuderli perché male utilizzati. Temere in generale l’informazione vuol dire darla vinta a quella superficiale, strillata. Il fatto stesso che le notizie sui terremoti siano aumentate negli ultimi anni (date un’occhiata al trend su Google, soprattutto dopo aprile 2009 ovviamente) non deve essere preso come motivo di cattiva informazione di per sé. Anzi, è un evento che va capitalizzato, perché finalmente la pubblica opinione si è svegliata sul rischio sismico, va solo “educata” ad essere più critica.

Enzo vs. Tim


Se ne parla anche qui:

  1. “Bertolaso, Boschi e l’assurdo terremoto dell’informazione – Luca De Biase,” http://blog.debiase.com/2010/09/bertolaso-boschi-e-lassurdo-te.html.
  2. “Liberiamo i dati … anzi no: ce li riprendiamo | Diritto 2.0 – Il blog di Ernesto Belisario,” http://blog.ernestobelisario.eu/2010/09/06/liberiamo-i-dati-anzi-no-ce-li-riprendiamo/.
della direttiva 2003/98/CE relativa al riutilizzo di
6 settembre, 2010 | di

Oggi inizia il FOSS4G 2010, e purtroppo io non ci sarò :-(

Scrivo questo post per fare un “in bocca al lupo” a tutti i partecipanti: a quelli che rendono vivo questo mondo, a quelli che non finiscono mai di regalarci nuovi strumenti e/o di migliorare quelli esistenti, a quelli che producono dei fantastici materiali didattici, a quelli che combattono per la valorizzazione ed una maggiore distribuzione dei dati liberi, a quelli che rispondono ad un messaggio di una mailing list alle 3 di notte, a quelli che ci mettono entusiasmo, tempo e professionalità, a quelli che impareranno qualcosa di nuovo ed avranno una nuova luce negli occhi. A tutti loro grazie!

A chi (come me) non ci sarà non resta che farsi rodere dall’invidia ;-) , leggere il programma della conferenza, scorrere l’elenco delle presentazioni, dei poster, dei workshop e dei tutorial, e soprattutto “giocare” con il fantastico live DVD preparato per l’occasione (io vado a scaricarlo).

Oppure molto più semplicemente seguire l’onda e scoprire cosa dice e fa la gente intorno a #foss4g2010.





TANTO non rappresenta una testata giornalistica ai sensi della legge n. 62 del 7.03.2001, in quanto non viene aggiornato con una precisa e determinata periodicita'. Pertanto, in alcun modo puo' considerarsi un prodotto editoriale.