TANTO » Web 2.0 http://blog.spaziogis.it le cose che ci piacciono ... Mon, 07 Nov 2016 09:59:24 +0000 it-IT hourly 1 Il (mio) web 2.0 quotidiano http://blog.spaziogis.it/2012/01/10/il-web-2-0-quotidiano/ http://blog.spaziogis.it/2012/01/10/il-web-2-0-quotidiano/#comments Tue, 10 Jan 2012 10:00:38 +0000 Pietro Blu Giandonato http://blog.spaziogis.it/?p=4616 Il “sottotitolo” di TANTO, così come concepito da Andrea ormai più di 6 anni fa, è “le cose che ci piacciono”. Nel nostro blog ormai scriviamo quasi esclusivamente di geomatica, intesa in tutte le sue accezioni, e in verità ero piuttosto scettico se pubblicare questo articolo proprio su TANTO. Ma poi mi sono ricordato che Gerlando aveva narrato la sua esprienza di comunicatore sempre qui, nel non molto lontano 2009. E del resto si tratta sempre di entropia, che tra l’altro è la categoria più numerosa dei nostri post.

Un impulso ulteriore a decidere di pubblicarlo qui (attenzione, prima ancora che una redazione noi siamo un gruppo di amici, quindi le decisioni le prendiamo sempre di comune accordo, compresa la scelta degli articoli) è stato il recente lancio di Planet GIS Italia, che mi ha “costretto” a sostituire in Google Reader il feed di Blog GIS Italia v. 3 proprio con quello nuovo di zecca di PGI.

Andiamo al dunque…

Una delle nostre necessità primarie quotidiane è informarci. Lo facciamo in molti modi differenti, da molte fonti differenti, su molti media differenti.

La radio ad esempio ci può accompagnare in svariati momenti della giornata. Per me è irrinunciabile ad esempio la mattina ascoltare su Rai Radio 3 Prima Pagina, e quando posso Radio3 Scienza, Tutta la città ne parla o ancora la trasmissione di Oscar Giannino su Radio24. Per fortuna ci sono i podcast, per ascoltare le puntate che ci perdiamo.

Ma quando si parla di blog, siti web, liste e gruppi di discussione, allora le cose diventano più complicate. Bisogna dedicargli del tempo, stando davanti al computer, o anche sullo smartphone, sebbene il piccolo schermo metta a dura prova le nostre diottrie e il touchscreen la pazienza delle nostre dita. Comunque sia, si tratta di tempo che viene ritagliato durante le nostre giornate incasinate, tra lavoro e impegni familiari.

Voglio qui condividere la mia esperienza di come ho organizzato quell’oretta in totale che riesco a dedicare a questa fondamentale, irrinunciabile parte della giornata.

Per domare le decine e decine di feed RSS ai quali sono abbonato, ma soprattutto non cadere nel panico dovuto ai 1.000 e passa nuovi item quotidiani che essi generano, uso da anni ormai Google Reader. A mio avviso, nonostante con l’ultima revisione Google lo abbia menomato pesantemente, eliminando la possibilità di condividere con i propri contatti le nostre letture e dirottando il traffico su Google Plus – che per inciso non m’ha preso e forse mai mi prenderà -, io lo trovo ancora il miglior strumento web per leggere in maniera organica i feed.

Naturalmente, molte delle cose che troviamo interessanti le condividiamo spontaneamente con i nostri contatti – una volta anche su Google Reader – via email, su Twitter, Facebook, Linkedin e ogni altro sistema sociale che frequentiamo.

Devo però fare un inciso fondamentale, ormai espleto circa il 50% delle mie attività digitali quotidiane (tra le altre consultare email, navigare sul web, gestire gli impegni, usare i social network, e ovviamente informarmi) sul mio smartphone. L’altro 50% del lavoro – su PC – riguarda l’uso di GIS, la scrittura di documenti di lavoro e di articoli per i blog, più altre attività “pesanti” meno ricorrenti. Essermi organizzato su piattaforma mobile mi consente di non rimanere ogni sera dalle 2 alle 3 ore davanti al computer per organizzare il lavoro (email, programmazione attività, ecc.), sacrificando il resto delle ancora più importanti attività sociali: dedicarsi alla famiglia, agli amici… e a sé stessi.

Il mio workflow informativo 2.0 parte dunque da Google Reader, nel quale butto qualunque feed RSS, dai siti web, ai blog, alle mailing list che non frequento assiduamente, finanche ai Pipes di Yahoo che uso per fare piccoli “mashup informativi”, come questo che si basa su quest’altro. Ma ovviamente mi avvalgo di una serie di applicazioni sia mobili che web per ottimizzare al massimo il tutto.

Per esprimervi in maniera chiara il workflow che ho messo a punto, e in modo sistemico i link tra le varie applicazioni da me utilizzate, ho creato una semplice mappa mentale con il fantastico servizio web popplet. La vedete qui sotto.

Gli strumenti del mestiere…

Descriverò ora gli attrezzi con i quali ho costruito il workflow, si tratta di tre applicazioni per Android e altrettanti servizi web. Si potrebbe costruire un processo analogo anche su piattaforma iOS – suggerisco infatti allo scopo alcune app alternative – ma francamente non so quanto potrebbe funzionare, visto che sul sistema operativo mobile Apple manca una delle “funzioni killer” invece da sempre disponibile su Android: l’onnipresente menu “share”. Con esso è infatti possibile inviare qualunque contenuto ad altre applicazioni, consentendo una piena interoperabilità tra di esse.

• gReader applicazione Android – free
A mio avviso è un lettore di Google Reader molto migliore dell’applicazione di Big G; possiede molte più funzioni, tra le quali la customizzazione dell’interfaccia, ma ovviamente è una questione di gusti. Ecco come lo uso. Quando trovo un item così interessante da volerlo leggere più tardi, in genere vorrei anche metterlo tra i miei bookmark, perciò lo invio al mio account delicious. Per fare questo mi è sufficientemente marcarlo “starred”, e un’apposita “ricetta” che ho creato sul servizio web ifttt (descritto oltre) preleva il flusso dei miei starred item e li trasforma in bookmark su delicious, taggandoli con “ifttt”, “googlereader” e “nome_feed”. Periodicamente vado a “curare” questi bookmark su delicious, li leggo e se ne vale la pena li conservo, taggandoli opportunamente e magari mettendoli in uno stack. C’è anche il modo di conservare – sempre su delicious – le letture in maniera privata, marcandole con un apposito tag, qui la ricetta su iftt. Quando invece una lettura mi sembra degna di condivisione, se voglio twittarla subito la mando a Tweedeck (vedi più avanti) mediante il menu “share” di Android, altrimenti a Buffer (ne parlo dopo) se voglio programmarne la diffusione su Twitter o Facebook in orari differenti.
Input: feed RSS. Output: starred items verso Delicious, shared verso Tweetdeck o Buffer.
Alternativa iOS: Feeddler

• Buffer • applicazione Android e servizio web - freemium
Si tratta di un formidabile servizio basato su web che consente di creare uno stack di tweet e aggiornamenti Facebook programmabili ad orari definiti dall’utente. La sua versione free consente di gestire fino a 3 distinti account Twitter e/o Facebook e di pubblicare fino a 10 elementi al giorno. Poichè (co)gestisco diversi account Twitter, riesco ad aggirare questo limite mediante BirdHerd, un ulteriore servizio sempre basato su web del quale parlerò più avanti. Buffer mette a disposizione anche un’app Android – sempre free – integrata nel fantastico menu “share” di Android, che consente di gestire lo stack editando i singoli elementi precedentemente creati e il loro ordine di pubblicazione.
Input: shared da gReader. Output: verso i miei account Twitter e Facebook, verso BirdHerd via DM.
Alternativa iOS: Buffer

• Tweriod • servizio web - freemium
Per usare al meglio Buffer e programmare i tweet e gli aggiornamenti in modo tale da ottenere la massima attenzione dai nostri follower, ci viene in supporto Tweriod. Si tratta di un servizio web in grado di analizzare l’attività degli account di chi ci segue su Twitter e da ciò suggerirci le fasce orarie migliori per pubblicare i nostri tweet, affinché ottengano la massima visibilità. Per ottenere l’analisi sarà sufficiente loggarsi a Tweriod con l’account Twitter dal loro sito web.
Input: account Twitter. Output: fasce orarie ottimali per twittare.

• Tweetdeck • applicazione Android e servizio web – free
A mio avviso il miglior client per Twitter – consente di postare anche su Facebook – in circolazione. Potentissime le sue funzioni, tra le quali cito ad esempio la possibilità di gestire svariati account Twitter e cinguettare lo stesso messaggio anche da più di uno, scheduling dei tweet, possibilità di gestire alert differenti per le singole colonne (le timeline degli account, degli hashtag, delle ricerche, delle citazioni). Che si può desiderare di più?
Input: da gReader.  Output: account Twitter o Facebook.
Alternativa iOS: Tweetdeck.

• ifttt ovvero “if this then that” • servizio web – free
Si tratta di una geniale applicazione web che consente di “mettere internet al lavoro per te”, parafrasando il loro slogan. Permette di interconnettere numerosi canali web, tra i quali proprio Google Reader, Buffer, delicious, Twitter, e feed RSS, ma la lista aumenta sempre più. Descriverlo qui sarebbe riduttivo, vi invito vivamente ad aprire un account e dare spazio alla fantasia. In questo contesto, io lo uso come già anticipato per creare dei nuovi bookmark in delicious dagli item starred di Google Reader.
Input: da Google Reader. Output: verso delicious.

• BirdHerd • servizio web – free (per ora)
@aborruso molto tempo fa introdusse noialtri TANTI all’uso di BirdHerd per aggiornare direttamente dai nostri rispettivi account Twitter quello di TANTO (@twanto). Una volta loggati su BirdHerd con l’account Twitter di gruppo, è possibile aggiungere i “contributori” (fino a un massimo di 10) ciascuno dei quali sarà poi in grado di pubblicare i tweet semplicemente inviando un DM all’account di gruppo stesso. Il messaggio verrà infine twittato, completato alla fine dalla firma del contributore. Qui un esempio. Quando dunque da gReader trovo un link interessante che voglio twittare come @twanto o @planetek o @altrageologia, mi sarà sufficiente mandare ai rispettivi account un DM con Tweetdeck o Buffer, il resto verrà da sé.
Input: da Buffer o Tweedeck. Output: verso account Twitter di gruppo.

In conclusione, chi come me consuma gran parte delle informazioni su piattaforma mobile, costruendo un workflow ben congegnato può al tempo stesso informarsi in maniera dinamica nell’arco della giornata (es. tempi morti durante le attese), condividere le cose ritenute più interessanti con i propri follower sui social network e conservarle sempre in maniera sociale con delicious. Tutto direttamente dal nostro smartphone, che la sera – assieme al PC – potremo tenere spento, e dedicarci alle altre cose – non digitali – che ci piacciono TANTO…

L'articolo Il (mio) web 2.0 quotidiano è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

]]>
http://blog.spaziogis.it/2012/01/10/il-web-2-0-quotidiano/feed/ 0 Blu’s way to Read, Save and Share
Parliamo di webmapping http://blog.spaziogis.it/2011/02/14/parliamo-di-webmapping/ http://blog.spaziogis.it/2011/02/14/parliamo-di-webmapping/#comments Mon, 14 Feb 2011 08:13:34 +0000 Alessio Di Lorenzo http://blog.spaziogis.it/?p=2798 Questo articolo nasce dall’idea di aprire una finestra su quella branca della geomatica che si occupa della condivisione e diffusione in rete dell’informazione geografica, comunemente indicata col termine webmapping e spesso protagonista su questo blog. Prima di entrare nel vivo del discorso, però, vorrei precisare che quello proposto è il mio personale punto di vista, [...]]]> Questo articolo nasce dall’idea di aprire una finestra su quella branca della geomatica che si occupa della condivisione e diffusione in rete dell’informazione geografica, comunemente indicata col termine webmapping e spesso protagonista su questo blog.
Prima di entrare nel vivo del discorso, però, vorrei precisare che quello proposto è il mio personale punto di vista, costruito nel tempo in base alla mia esperienza professionale in questo campo. Esistono altri strumenti e approcci diversi rispetto a quello che vedremo nel corso dell’articolo, quindi, come sempre, ogni commento sarà ben accetto e spunto di ulteriore riflessione.

Sicuramente si parla di una delle specializzazioni dei Sistemi Informativi Geografici che negli ultimi anni si sono trasformate più velocemente, complice l’evoluzione del World Wide Web e delle tecnologie legate ad esso. Si tratta, inoltre, di una materia fortemente interdisciplinare in quanto, a prescindere dall’ambito nel quale l’applicazione di webmapping verrà impiegata (turismo, analisi ambientale, monitoraggi di vario genere, ecc.), a monte ci sono le competenze di almeno quattro figure professionali differenti che comprendono l’esperto di GIS, il Database administrator, lo sviluppatore e il sistemista.

Ho pensato di scrivere un articolo come questo perché spesso mi capita di avere a che fare con persone interessate ad avvicinarsi a questo mondo o semplicemente curiose di sapere “cosa c’è sotto” ma messe in seria difficoltà dalla quantità, eterogeneità e frammentazione delle informazioni disponibili in rete.
Tutto ciò, insieme all’esistenza di una moltitudine di soluzioni software, di tanti standard reali e de facto, di moltissime filosofie e approcci diversi, crea un labirinto intricato in cui è facile smarrirsi specialmente se si è agli inizi.

La cartografia su internet diventa popolare

Un grande contributo all’esplosione della cartografia su internet è arrivato da alcune applicazioni web basate su mappe, come Google Maps, Google Earth, Yahoo! Maps, Virtual Earth (ora noto come Bing Maps), comparse relativamente pochi anni fa e divenute di massa nel giro di pochissimo tempo.
Lungi dall’essere delle applicazioni GIS in senso stretto, hanno comunque il merito di saper mostrare la forza del punto di vista spaziale: ogni oggetto, se collocato nello spazio geografico, viene arricchito con nuove informazioni intrinseche nella sua localizzazione e nella relazione con gli altri oggetti che si trovano nelle sue vicinanze.
La potenza espressiva della cartografia su internet, per la prima volta sotto gli occhi di tutti e non dei soli addetti ai lavori, ha dato un importante input per il cambio di passo che ha condotto alle moderne applicazioni di webmapping.
Certamente questa direzione si è potuta intraprendere anche grazie all’aumento delle capacità di elaborazione dei browser e alla crescita degli strumenti e delle tecnologie per lo sviluppo delle applicazioni web, alcuni dei quali ideati e rilasciati dagli stessi soggetti titolari delle famose mappe online (si pensi, ad esempio, alle API di Google Maps).
Le vecchie cartografie web, oltre ad essere accessibili a pochi, richiedevano spesso tempi di caricamento lunghi o l’installazione di plug-in sulla macchina dell’utente. Le recenti applicazioni di webmapping, invece, beneficiano di uno spiccato livello di interattività e reattività, caratteristiche tipiche delle applicazioni Web 2.0 che sfruttano tecnologie come AJAX e si integrano alla perfezione nell’ecosistema del web moderno, composto da social network, feed RSS e servizi di varia natura.

Standard è bello… e pratico

Una ulteriore spinta alla diffusione di questa nuova generazione di applicazioni di webmapping è venuta dall’affermarsi di standard aperti, documentati e condivisi messi a punto dall’Open Geospatial Consortium (OGC).
Le maggiori case produttrici di software GIS, nonché le comunità open source con i loro innumerevoli progetti, hanno implementato nei loro prodotti il supporto ai principali standard OGC (WMS, WFS, WCS, ecc.) favorendo l’interoperabilità. Chi progetta e sviluppa applicazioni di webmapping oggi ha la possibilità di mescolare risorse disponibili in rete e risorse locali, di utilizzare tecnologie e piattaforme differenti in grado, però, di scambiare informazioni grazie al rispetto degli standard e di ottenere così degli efficacissimi mash-up tramite i quali diffondere l’informazione spaziale.

Lato server

A prescindere dai dati, preferibilmente mantenuti in un RDBMS spaziale (come PostGIS o Oracle Spatial), salvo situazioni particolari un’applicazione di webmapping ha generalmente bisogno di due componenti che operano sul server: il web server e il map server.
Il web server, come Apache, solo per citare il più diffuso e più famoso, è l’ambiente che renderà possibile la pubblicazione del lavoro e accoglierà le richieste provenienti dall’applicazione client (quella con cui l’utente interagisce) per passarle al map server. Quest’ultimo, per dirla in maniera molto sintetica, interpreta tali richieste e produce di conseguenza degli output (le mappe) che vengono spedite al client di nuovo attraverso il web server. Ovviamente questo è uno schema generale ed anche se formalmente corretto (ricalca il funzionamento di UMN-MapServer, che è uno dei map server più validi e versatili), occorre tenere presente che ogni software appartenente a questa categoria ha le proprie modalità specifiche di azione. Geoserver ed ArcGIS Server sono altri due ottimi esempi, il primo è gratuito ed open source, come lo è anche UMN-MapServer, mentre l’altro è un prodotto proprietario distribuito da ESRI.
Prima di chiudere la breve panoramica sugli strumenti lato server, è bene ricordare che nel caso delle applicazioni di webmapping più avanzate è necessario avere a disposizione anche un linguaggio di programmazione (Java, PHP, Python, ecc.) per organizzare la logica di business, cioè l’insieme degli algoritmi che gestiscono lo scambio di informazioni tra il client e la banca dati. UMN-Mapserver, ad esempio, è completo di API (Application Programming Interface) per i principali linguaggi di programmazione, mentre ArcGIS Server propone due ADF (Advanced Development Framework) per Java e .Net.

Diagramma Webmapping

Lato client

Il client, come anticipato nel precedente paragrafo, è quella parte dell’applicazione con cui l’utente finale interagisce. Questo “strato” ha, perciò, un ruolo fondamentale nel decretare il successo o insuccesso dell’intera applicazione. Senza un client efficace che metta in risalto gli strumenti più importanti offerti all’utente e lo prenda quanto più possibile per mano nel compiere le operazioni che lo porteranno ad ottenere la risposta desiderata (un’estrazione di dati tramite interrogazione, l’analisi di una determinata variabile ambientale, ecc.), si rischia seriamente di vanificare gli sforzi profusi nella progettazione e implementazione del database e degli algoritmi lato server.
E’ ovvio che, pur progettando un client ideale, non è sempre possibile raggiungere la massima facilità di utilizzo, poiché tutto è influenzato dal numero delle funzionalità offerte, dalla loro complessità, dal tipo di utenti a cui ci si rivolge e da diversi altri fattori. Tuttavia un’interfaccia utente intuitiva è il risultato a cui si dovrebbe tendere quando si inizia a progettarla.

Come si realizza il client? Le soluzioni sono tantissime, dai template html di UMN-Mapserver, ai framework in PHP come p.Mapper (sempre per UMN-Mapserver) che mettono a disposizione un client con dei moduli dinamici lato server (PHP MapScript), a librerie Javascript come OpenLayers, di cui si è spesso parlato qui su TANTO.
Personalmente preferisco l’ultima soluzione in quanto costruire il proprio client da zero usando una libreria Javascript (OpenLayers non è l’unica), sebbene possa essere inizialmente più laborioso rispetto alla configurazione di un framework come p.Mapper, presenta degli indubbi vantaggi.
Sorvolando sulla valenza didattica del costruire una ad una le funzioni attivate dai vari tasti di una toolbar, ci si rende conto della bontà della scelta quando quello che offre un framework out of the box non basta più e si deve procedere ad un lavoro di personalizzazione/integrazione. Spesso modificare il comportamento di un software complesso, legato ad una specifica piattaforma (UMN-MapServer e PHP MapScript, nel caso di p.Mapper), che comprende numerosi script interconnessi tra loro richiede uno sforzo ben superiore a quello necessario per scrivere da zero una nuova funzione che faccia uso di una classe della libreria OpenLayers (oppure delle API di Google Maps o ArcGIS Server).
Un altro vantaggio – sempre nel caso in cui si scelga di lavorare con Javascript – è che si semplifica di molto l’integrazione nell’interfaccia di librerie per la costruzione di Rich Internet Application (RIA), come jQuery, Dojo, Mootools, YUI o ExtJS, ottime per la creazione di tutti quei piccoli espedienti che rendono il client efficace (nell’accezione usata in precedenza). C’è davvero l’imbarazzo della scelta.

Considerazioni conclusive

Come dicevo in apertura, ci si può discostare anche di molto da quasi tutti gli strumenti elencati e da questo approccio senza per questo sbagliare. Tuttavia nelle prime fasi è utile individuare e chiarire dei concetti specifici, imparare a padroneggiare gli strumenti per muoversi con disinvoltura e poi, in seguito, avventurarsi e testare soluzioni alternative e sempre più originali. In ogni caso alcuni punti, come la creazione di un client intuitivo o il rispetto degli standard, hanno una valenza generale e andrebbero sempre tenuti in debita considerazione a prescindere dalle scelte che si opereranno. Non mi resta che augurare buon divertimento a tutti.

L'articolo Parliamo di webmapping è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

]]>
http://blog.spaziogis.it/2011/02/14/parliamo-di-webmapping/feed/ 28 webmapping_diagramma
I pionieri dell’Open Data in Italia http://blog.spaziogis.it/2010/07/12/i-pionieri-dellopen-data-in-italia/ http://blog.spaziogis.it/2010/07/12/i-pionieri-dellopen-data-in-italia/#comments Mon, 12 Jul 2010 07:27:50 +0000 Antonio Falciano http://blog.spaziogis.it/?p=2213 E’ appena trascorso un mese dall’entrata in esercizio del primo portale Open Data italiano, dati.piemonte.it, il quale è stato accolto favorevolmente dagli entusiasti sostenitori italiani del movimento Open Data ed addirittura classificato come portale governativo di prima categoria dal gruppo PSI (Public Sector Information) della Commissione Europea, in quanto garantisce l’accesso diretto ai dati, analogamente [...]]]> E’ appena trascorso un mese dall’entrata in esercizio del primo portale Open Data italiano, dati.piemonte.it, il quale è stato accolto favorevolmente dagli entusiasti sostenitori italiani del movimento Open Data ed addirittura classificato come portale governativo di prima categoria dal gruppo PSI (Public Sector Information) della Commissione Europea, in quanto garantisce l’accesso diretto ai dati, analogamente a data.gov.

Pur trattandosi di una versione beta, rappresenta indubbiamente una pietra miliare che dimostra la fattibilità dell’Open Data anche in Italia, nonostante le difficoltà di cui si accennava in questo recente post.

Ma vediamo in dettaglio di cosa si tratta. La pagina di accesso al portale si presenta con una grafica semplice ed accattivante su cui campeggia in primo piano il principio di fondo dell’iniziativa, una vera e propria dichiarazione di intenti in perfetto stile Government 2.0 ed in completo accordo con il senso della Direttiva 2003/98/CE del Parlamento europeo:

I dati pubblici sono di tutti
I dati in possesso della Pubblica Amministrazione sono un patrimonio informativo prezioso per la società e l’economia. La Regione Piemonte intende metterli a disposizione di cittadini e imprese per stimolare un nuovo rapporto fra pubblico e privato e favorire lo sviluppo di iniziative imprenditoriali.

A valle di questa esaltante premessa, seguono immediatamente pochi ma efficaci menù che rimandano ai contenuti del portale, dopodiché si va direttamente al sodo, accedendo direttamente ad un piccolo assaggio dei dati grezzi finora messi a disposizione, ad un estratto delle discussioni più recenti nel blog ed, infine, ad una sezione dedicata al riuso dei dati pubblici, dotata di una presentazione multimediale esplicativa sull’argomento.

Curiosando all’interno della sezione Dati, è possibile osservare che:

  • al momento sono presenti solo alcuni set di dati, tuttavia assicurano che a questi se ne aggiungeranno progressivamente degli altri, anche su richiesta degli utenti;
  • i dati grezzi sono descritti da metadati (informazioni sui dati);
  • sono resi disponibili in formato CSV e, di conseguenza, sono consultabili mediante un qualsiasi editor di testo;
  • sono aggregati a scala provinciale e, talvolta, comunale;
  • è facile verificare come siano indicizzati nei principali motori di ricerca e quindi siano di facile reperibilità anche all’esterno del portale;
  • infine, sono corredati di un contratto di licenza in cui si afferma chiaramente che la Regione Piemonte ne detiene la titolarità e ne “autorizza la libera e gratuita consultazione, estrazione, riproduzione e modifica [...] da parte di chiunque vi abbia interesse per qualunque fine, ovvero secondo i termini della licenza Creative Commons – CC0 1.0 Universal” (dominio pubblico).

Benissimo! Siamo certamente ancora distanti dalla mole impressionante di contenuti presenti in data.gov e data.gov.uk, tuttavia sono largamente rispettate in sostanza le indicazioni del Manifesto stilato da The Guardian, contenente a mio avviso un insieme minimo di principi pienamente condivisibile.

Il rilascio dei dati grezzi prodotti dalla PA – in formato aperto e con licenze che ne consentono il riuso – può produrre effetti benefici tanto nella trasparenza dei processi decisionali delle amministrazioni, quanto nella qualità dei servizi e nell’economia immateriale che vi ruoterebbe attorno. In particolare, i raw data costituiscono una risorsa dall’enorme potenziale nascosto, che è possibile far venire allo scoperto sfruttando le relazioni esistenti tra i dati in maniera originale e creativa in fase di produzione di nuovi servizi, magari ottenendo applicazioni assolutamente impensabili da parte degli stessi produttori di dati.

TANTO si occupa ormai da diverso tempo di sensibilizzare i suoi lettori verso l’utilizzo creativo ed appassionato dei vari strumenti del web 2.0 disponibili in rete, sottolineando come essi possano rappresentare un importante mezzo di sviluppo e di crescita sia per chi si occupa di geomatica, che per l’intera collettività. A tal fine, mi piace riportare alcuni stralci di un commento di Pietro Blu Giandonato relativo a questo interessante post:

esiste ormai sul web una messe di strumenti, applicazioni, servizi, fonti di dati formidabile, che sta crescendo vertiginosamente, e della quale non resta altro che coglierne le opportunità a piene mani. [...] In un paio d’ore, tra progettazione e realizzazione, è possibile tirare su un mashup potente, semplice e veloce per mettere in strada dati reperiti altrove da più fonti, o addirittura originali! [...] E’ necessario cambiare il paradigma della geomatica in Italia, passando dal GIS come unico strumento per la rappresentazione e gestione dei dati, arrivando a una sorta di “cloudmapping” realizzato con le decine di strumenti web 2.0 che esistono in giro. Una strada peraltro che richiede essenzialmente fantasia, creatività e intuito, che permette di costruire grandi cose con piccole azioni. Il problema è ovviamente immaginarle…

Così, mi sono chiesto: è possibile visualizzare i raw data piemontesi all’interno di una piccola applicazione di web mapping facendo in modo che i risultati delle interrogazioni siano dei bei grafici, piuttosto che noiosi numeri? Certamente! Ho scelto quindi i dati relativi alle dotazioni ICT presso i cittadini e ne ho effettuato il download accettandone le condizioni di utilizzo. Trattandosi di dati in forma tabellare, li ho semplicemente importati all’interno di un foglio di calcolo di Google Docs e poi pubblicati in modo tale che “chiunque abbia accesso a Internet possa trovarli e visualizzarli“, ottenendo la struttura seguente:

I dati prescelti possono essere analizzati secondo differenti chiavi di lettura (query). Ad esempio, è possibile risalire alle dotazioni ICT per provincia e per anno, così come alla singola dotazione per provincia negli anni 2005-2009. Mi sono posto pertanto il seguente obiettivo: individuare lo strumento web 2.0 più agevole per interrogare la tabella come all’interno di un database, in modo da poter estrarre di volta in volta solo i dati necessari per ottenere il grafico corrispondente ad una particolare query. Dopo vari tentativi con Yahoo! Pipes ed YQL (Yahoo! Query Language), peraltro abbastanza ben riusciti (li trovate qui), ho individuato nel Query Language delle Google Visualisation API un’alternativa relativamente semplice ed efficiente, tale da scongiurare la necessità di dover configurare un web server e risolvere le beghe informatiche dovute alle cross-domain restrictions. Si tratta praticamente delle stesse API che consentono di ottenere dei grafici a partire dai dati.

A proposito della componente geografica, ho deciso di utilizzare come client OpenLayers (di cui si parla spesso qui su TANTO) per via della sua enorme versatilità e semplicità d’uso, un servizio TMS (Tile Map Service) di OpenStreetMap come layer di base ( i “linked data” per eccellenza!), ed i confini ISTAT delle province reperibili qui, utilizzabili per scopi non commerciali a patto di citarne la fonte. Questi ultimi sono stati convertiti nel formato GML ed opportunamente trasformati nel sistema WGS84 (EPSG:4326).

In definitiva, il funzionamento dell’applicazione è molto semplice ed intuitivo: scelta una delle opzioni (query) poste in basso, per interrogare una delle province piemontesi occorre semplicemente cliccare sulla corrispondente entità vettoriale che la rappresenta in mappa. Comparirà successivamente un popup contenente la denominazione della provincia, il titolo del grafico ed il grafico stesso (dotato di legenda, se necessaria). Questo è il mashup risultante:

Per concludere, ho alcune interessanti novità da segnalare. Nel frattempo, negli altri Paesi il modello di Open Government procede inesorabilmente la sua marcia. In particolare, nel Regno Unito è stata appena istituita una Commissione per la Trasparenza nel Settore Pubblico con il compito di guidare l’agenda sulla Trasparenza del Governo, rendendola un elemento cardine di ogni sua attività e assicurando che tutti i Dipartimenti presso Whitehall rispettino le scadenze fissate per il rilascio di nuovi dataset pubblici. Inoltre, è responsabile della definizione di standard sui dati aperti per l’intero settore pubblico, recependo ciò che è richiesto dal pubblico e assicurando l’apertura dei dataset più richiesti. Un primo importante compito della Commissione attualmente in itinere consiste nella definizione dei Principi di Trasparenza dei Dati Pubblici mediante il diretto coinvolgimento degli utenti.

Un’altra novità di rilievo è la nascita del portale italiano CKAN, un progetto ad opera della Open Knowledge Foundation. Si tratta di un catalogo di dati e contenuti aperti creato allo scopo di facilitarne la ricerca, l’uso e il riuso, al quale è possibile contribuire liberamente, fornendo informazioni sulle banche dati (metadati), quali l’URL della risorsa, l’autore e il soggetto che detiene la titolarità dei dati, la versione e la licenza d’uso.

Sempre in Italia, un’altra notizia che fa ben sperare: il Ministro per la Pubblica Amministrazione e l’Innovazione, durante un’intervista a Frontiers of Interaction 2010, ha annunciato la creazione di un data.gov italiano entro la fine dell’anno. In particolare, la pubblicazione dei dati pubblici dovrebbe servire da contromisura ai fenomeni di corruzione legati agli appalti. Finalmente! ;)

L'articolo I pionieri dell’Open Data in Italia è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

]]>
http://blog.spaziogis.it/2010/07/12/i-pionieri-dellopen-data-in-italia/feed/ 7
ArcGIS Server e Google Maps: come misurare correttamente le distanze http://blog.spaziogis.it/2010/04/25/arcgis-server-e-google-maps-come-misurare-correttamente-le-distanze/ http://blog.spaziogis.it/2010/04/25/arcgis-server-e-google-maps-come-misurare-correttamente-le-distanze/#comments Sun, 25 Apr 2010 22:29:46 +0000 Alessio Di Lorenzo http://blog.spaziogis.it/?p=1997 Tempo fa scrissi un articolo su ArcGIS Server 9.3 soffermandomi sui servizi REST e le API Javascript ed accennando al fatto che ESRI mette a disposizione delle estensioni per le API di Google Maps e per quelle di Bing Maps. Ultimamente ho lavorato un po’ con le prime e ne ho avuto complessivamente una buona [...]]]> Tempo fa scrissi un articolo su ArcGIS Server 9.3 soffermandomi sui servizi REST e le API Javascript ed accennando al fatto che ESRI mette a disposizione delle estensioni per le API di Google Maps e per quelle di Bing Maps.
Ultimamente ho lavorato un po’ con le prime e ne ho avuto complessivamente una buona impressione. Tuttavia, durante lo sviluppo, ho riscontrato un problema nella misurazione delle distanze e delle aree che merita di essere messo in evidenza, soprattutto perché gli esempi della documentazione ESRI non lo fanno a dovere ed anzi, secondo me, risultano leggermente fuorvianti.
Terminata la premessa, prima di andare avanti con l’articolo, voglio ringraziare Domenico Ciavarella, che mi ha dato un supporto fondamentale per arrivare ad una soluzione che altrimenti starei ancora cercando.

La proiezione di Google Maps


mercator

Effetto di distorsione delle aree

Google Maps, Bing Maps ed altri provider (come OpenStreetMap, Yahoo e, di recente, la stessa ESRI) utilizzano una proiezione nota come Spherical Mercator, derivata dalla proiezione di Mercatore. Il codice EPSG ufficiale è 3785, anche se prima della sua definizione molti software hanno utilizzato l’ufficioso 900913. L’identificativo per i software ESRI, tra cui ovviamente ArcGIS Server, è invece 102113.
Questa proiezione considera la Terra come una sfera e consente di includerne completamente la superficie all’interno di un quadrato.
Quando però si rappresenta una superficie curva su di un piano, come un foglio di carta o il monitor di un computer, si introducono delle deformazioni. In questo caso, man mano che ci si allontana dall’equatore le aree cartografate subiscono un pesante stiramento sia in senso verticale che orizzontale e diventano, quindi, via via più esagerate verso i poli (la Groenlandia, per esempio, sembra più grande dell’Africa). Questa proiezione evidentemente non è fatta per minimizzare la deformazione delle aree (la proiezione di Mercatore è conforme infatti), ma risulta vantaggiosa per l’uso attraverso il web perché consente di applicare un modello efficiente di tassellamento e caching.

Il problema…

Ammettiamo di voler creare un’applicazione di webmapping con le sopracitate estensioni delle API Javascript di ArcGIS Server per Google Maps.
La prima cosa da fare è creare un mapservice in grado di esporre i nostri dati spaziali con la medesima proiezione delle basi cartografiche di Google. Come spiegato nel post dedicato ad ArcGIS Server (linkato all’inizio di questo articolo) un mapservice “aggancia” e pubblica un progetto redatto in ArcMap (il classico .mxd), quindi basta assegnare al dataframe del progetto il sistema di riferimento appropriato (che si trova nella lista dei sistemi proiettati, alla voce WGS 84 Web Mercator, con identificativo 102113), salvare il tutto e pubblicarlo con ArcGIS Server. Niente di difficile insomma.
Focalizziamoci ora sullo sviluppo del client: tra i tanti strumenti che oggi ci si aspetta di trovare in una applicazione WebGIS ci sono i “righelli” che consentono di disegnare spezzate e poligoni e di misurarne poi lunghezza ed area. ESRI lo sa, ed ha giustamente incluso un esempio per mostrare come creare questi tool nella documentazione delle sue API.
Abbiamo detto però che l’uso della proiezione Spherical Mercator provoca una deformazione crescente man mano che ci si spinge verso i poli e, tracciando una spezzata per misurare un oggetto al suolo di dimensioni note, come uno stadio di calcio, ci si accorge dell’inghippo: è più lungo di quanto dovrebbe essere (circa 146 metri invece di 105-110).
L’esempio fornito da ESRI non considera la deformazione e può indurre gli sviluppatori all’errore. E’ vero che una persona con le adeguate conoscenze di geomatica può arrivare ad intuire il rischio insito nell’uso della proiezione di Google, ma è anche vero che il webmapping è terra di confine tra “gissologi” e sviluppatori informatici “puri”, senza particolari cognizioni tipiche del mondo gis. Non è per nulla detto, quindi, che chi sviluppa abbia i mezzi per immaginare il problema prima di averci sbattuto il muso e personalmente credo che aver pubblicato un esempio del genere nella documentazione ufficiale, senza neanche accennare alla questione della deformazione, sia stata una leggerezza.

…e la soluzione

Non molto tempo fa sul blog di ArcGIS Server è comparso un interessante post che mette in evidenza il problema della misurazione delle distanze e spiega come comportarsi per risolverlo.
Il servizio che in ArcGIS Server è incaricato di calcolare lunghezze ed aree, il Geometry Service, è in grado di svolgere diverse altre operazioni, tra cui la proiezione al volo delle geometrie.
Il “trucco” consiste nel riproiettare la geometria tracciata dall’utente nel sistema di riferimento più adatto alla zona mappata prima di effettuarne la misurazione e stampare a schermo il risultato.
Purtroppo lo snippet di codice fornito da ESRI è pronto all’uso solo per le API Javascript, mentre per le estensioni di Google Maps bisogna fare da soli e il discorso è un po’ meno semplice.
Al posto di questa funzione:

var sr = new esri.SpatialReference({wkid:32610});
geometryService.project([graphic], sr, function(projectedGraphic) {
geometryService.areasAndLengths(projectedGraphic, function(result) {
var perimeter = result.lengths[0];
var area = result.areas[0];
});
});

abbiamo bisogno di questa:

var geometryService = new esri.arcgis.gmaps.Geometry("http://sampleserver1.arcgisonline.com/ArcGIS/rest/services/Geometry/GeometryServer");
function calculateLengths() {
//Parametri per la riproiezione
var params = new esri.arcgis.gmaps.ProjectParameters();
params.geometries = [polyline];
params.inSpatialReference  = 4326;
params.outSpatialReference = 3004; //Gauss-Boaga fuso Est
//Riproiezione e funzione di callback
geometryService.project(params, getLengths);
}
function getLengths(projectResults){
var url = "http://sampleserver1.arcgisonline.com/ArcGIS/rest/services/Geometry/GeometryServer/lengths";
var parameters = {
polylines: projectResults.geometries,
sr: 3004
};
esri.arcgis.gmaps.JSONRequest(url, test, parameters);
}
function test(result) {
alert(result.lengths[0]+" m");
}

Ho realizzato un veloce esempio che mostra i risultati ottenuti dal codice proposto da ESRI nella propria documentazione a confronto con quelli ottenuti dalla riproiezione con il Geometry Service e dalle semplici API di Google Maps, che hanno dei metodi propri per la misura di linee e poligoni.

L'articolo ArcGIS Server e Google Maps: come misurare correttamente le distanze è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

]]>
http://blog.spaziogis.it/2010/04/25/arcgis-server-e-google-maps-come-misurare-correttamente-le-distanze/feed/ 4 mercator
jQuery e OpenLayers: agitare prima dell’uso… http://blog.spaziogis.it/2010/03/01/jquery-e-openlayers-agitare-prima-delluso/ http://blog.spaziogis.it/2010/03/01/jquery-e-openlayers-agitare-prima-delluso/#comments Mon, 01 Mar 2010 08:40:35 +0000 Alessio Di Lorenzo http://blog.spaziogis.it/?p=1747 Era da un po’ che avevo in mente di dedicare un articolo a jQuery, finalmente – complici l’influenza che mi ha tenuto a riposo forzato e l’ispirazione tratta da Linfiniti – sono riuscito nell’intento. Per chi non lo sapesse, jQuery è un framework Javascript open source molto potente, caratterizzato da una sintassi snella e di [...]]]> Era da un po’ che avevo in mente di dedicare un articolo a jQuery, finalmente – complici l’influenza che mi ha tenuto a riposo forzato e l’ispirazione tratta da Linfiniti – sono riuscito nell’intento.

Per chi non lo sapesse, jQuery è un framework Javascript open source molto potente, caratterizzato da una sintassi snella e di facile comprensione.
Il framework è rilasciato con doppia licenza: MIT e GPL.
I motivi per usare jQuery nei propri progetti non mancano di certo: comunità attiva, disponibilità di molti temi e ottimi plugin, compatibilità e leggerezza sono i primi che mi vengono in mente.

In questo articolo vedremo come costruire una mappa online sfruttando jQuery UI e OpenLayers.
Il risultato della “fusione” è un client dotato di funzionalità di base come zoom, pan, misurazione delle distanze e vari layer di sfondo intercambiabili.
Si tratta, in pratica, di un template da cui partire per sviluppare applicazioni di web-mapping vere e proprie.

jquery_openlayers

Per creare il client dell’esempio abbiamo bisogno di:

Ho già raccolto il tutto in questo archivio .zip. Qui dentro, oltre alle librerie, si trova la totalità dei file che compongono il client. Vi basta quindi cliccare sul link per avere il template sul vostro computer, pronto all’uso e/o ad essere trasformato come volete.
Vi invito però a dare lo stesso un’occhiata alla pagina di download di jQuery UI: noterete che è possibile modificare radicalmente il pacchetto prima di scaricarlo. Potete includere le sole componenti utili ai vostri scopi e scegliere tra vari temi già pronti o uno composto da voi con ThemeRoller.
Io ho fatto solo qualche semplice modifica al tema UI-Darkness (in questo periodo non mi piacciono i bordi arrotondati…) ma, come dicevo, si può fare molto di più. Provare per credere.

Ora un po’ di anatomia.
Scompattato l’esempio, è bene posare lo sguardo su alcune delle directory e dei file compresi al suo interno.

jsLib

E’ la directory contenente tutte le librerie elencate in precedenza, necessarie al funzionamento del template.

index.html

Nella sezione header sono referenziate le librerie utilizzate, i fogli di stile e i file javascript.
Nel body è possibile notare che l’attributo class di molti degli elementi della pagina (div, button, span, ecc.) è parecchio popolato. Questo è il metodo con cui jQuery UI e jQueryUI.Layout si “ancorano” alla pagina web.
Per comprendere meglio vi rimando alla pagina degli esempi di jQuery UI.Layout e a questo articolo che spiega in maniera egregia la composizione della toolbar e dei suoi pulsanti.

jsFunc/mappa.js

Contiene la mappa realizzata con OpenLayers.
Nella funzione di inizializzazione (initMap) richiamata al caricamento della pagina, ci sono, tra le altre cose, i controlli collegati ai bottoni della toolbar.

jsFunc/layout.js

In questo script, con poco più di 40 righe di codice, jQuery UI e i suoi plugin definiscono Il layout dell’applicazione, il tema, il comportamento e l’aspetto di bottoni e tooltip.

Css/style.css

A parte qualche piccola “frivolezza” come queste (a mio giudizio) bellissime icone, in questo foglio di stile sono descritte le regole fondamentali per la corretta presentazione del layout e della toolbar creati tramite jQuery UI.

Ecco, questo è grossomodo ciò che bisogna sapere per iniziare a studiare i mille modi di mescolare le potenzialità di jQuery a quelle di OpenLayers.
Fondamentale, come sempre, è il ricorso alla documentazione ufficiale dei vari progetti e al supporto offerto dalla comunità.
Per chiudere segnalo anche due guide in italiano, estremamente ben fatte ed utilissime per avvicinarsi a jQuery e jQuery UI. Entrambe sono firmate HTML.it:
Guida a jQuery
Guida a jQuery UI

L'articolo jQuery e OpenLayers: agitare prima dell’uso… è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

]]>
http://blog.spaziogis.it/2010/03/01/jquery-e-openlayers-agitare-prima-delluso/feed/ 10 jquery_openlayers
Perché le cose che dice e scrive il prof. Farinelli mi piacciono tanto? http://blog.spaziogis.it/2010/01/10/perche-le-cose-che-dice-e-scrive-il-prof-farinelli-mi-piacciono-tanto/ http://blog.spaziogis.it/2010/01/10/perche-le-cose-che-dice-e-scrive-il-prof-farinelli-mi-piacciono-tanto/#comments Sun, 10 Jan 2010 12:29:58 +0000 Sergio Farruggia http://blog.spaziogis.it/?p=1526 Note personali a seguito dell’intervista di Andrea Borruso al prof. Franco Farinelli Quando debbo presentarmi in rete, utilizzo sempre più o meno quest’affermazione: “Credo che  l’Informazione Geografica sia uno degli ambiti più affascinanti della nascente Società della Conoscenza”. Sono affezionato all’aggettivo “nascente”, mi fa sentire particolarmente partecipe di una trasformazione, di una rivoluzione senza precedenti [...]]]> Note personali a seguito dell’intervista di Andrea Borruso al prof. Franco Farinelli

Quando debbo presentarmi in rete, utilizzo sempre più o meno quest’affermazione: “Credo che  l’Informazione Geografica sia uno degli ambiti più affascinanti della nascente Società della Conoscenza”. Sono affezionato all’aggettivo “nascente”, mi fa sentire particolarmente partecipe di una trasformazione, di una rivoluzione senza precedenti nella storia dell’umanità, al cui centro viene posto proprio ciò che ci rende consapevoli del nostro essere: la funzione cognitiva. Sento  quindi come privilegio il vivere nell’epoca in cui alla società pastorale ed agricola, a quella industriale se ne aggiunge un’altra: quella della conoscenza.

In questa cornice, occuparsi di Informazione Geografica è un’opportunità speciale. Essa è:

  • un crogiolo per un gran numero di tecnologie: GIS, RS (telerilevamento), ERP (sistemi informativi per la pianificazione delle risorse), GPS, RFID (tecnologie per l’identificazione a radio frequenza), BI (business intelligence), WEB(x.0), ecc., ecc., ecc.;
  • “nidi” di network: reti di competenze discipline, saperi, domini applicativi; reti organizzative ancor prima che tecnologiche.

Penso ancora che tutto quello che si sperimenta, s’inventa, si realizza in questo quadro diventa stock di conoscenza, disponibile oltre i confini dell’Informazione Geografica: cioè è essa stessa conoscenza!

Per sottolineare questa affermazione noto che lo sviluppo dell’Informazione Geografica nelle forme più innovative entra in relazione con i paradigmi del XXI Secolo: riduzionismo-olismo, glocale, sostenibilità, sussidiarietà, solidarietà, cooperazione, comunicazione, … .

Quindi, credo che per seguire l’evoluzione di questo settore dell’ITC sia necessaria una risoluta adesione ai paradigmi dell’innovazione ed una forte tensione emotiva.  Osservo infine che il suo sviluppo sta pervadendo tutte le componenti della società ed offre opportunità per diffondere valori etici (libertà, equità, convivialità[1], …).

Questa è -per me- l’Informazione Geografica.

Il Geografo_-Jan_Vermeer_van_Delft_009Farinelli mi sollecita a pormi domande: gliene sono grato. Mi costringe a tralasciare le problematiche professionali quotidiane, a trascurare le difficoltà che incontro, oppure osservo, nel processo di sviluppo, di diffusione dell’Informazione Geografica così come lo immagino, come ho cercato di schematizzare sopra.

Quando ascolto le sue parole o leggo suoi testi ho l’impressione di trovare la fonte di tutte le informazioni necessarie per osservare, riflettere e procedere all’interno del labirinto dell’Informazione Geografica. Trovo corrispondenze dotte tra le tesi che lui sostiene, le ipotesi a cui si affida ed il dominio dell’Informazione Geografica. Qualche esempio tratto dalla chiacchierata con Andrea: i GIS definiti come “forma di sapere che mette in crisi la logica disciplinare”, quindi GIS “natura complessiva del sapere”; il richiamo al ruolo centrale della geografia alle origini della nostra cultura, “la forma originaria del sapere occidentale è la geografia”, quindi “tutto il sapere occidentale è geografico”. Forse è anche per questo che “i geografi più importanti non sono mai stati geografi di formazione: le innovazioni sono state portate da pirati che non avevano una loro specifica formazione disciplinare”. Ancora: viviamo “nel pieno della re-inscrizione dello statuto epistemologico ed ontologico delle cose” e sentiamo “l’esigenza di mettere a punto nuovi modelli del rapporto che esiste tra il sapere, la tecnica ed il funzionamento del mondo”. Quindi, “la sfida della nostra generazione è pensare che la terra sia una sfera, un globo topologicamente irriducibile a qualsiasi mappa”. Infine: “La crisi del mondo più preoccupante è l’abisso che si va spalancando tra il funzionamento del mondo e la nostra possibilità di comprensione”, cioè “l’origine di ogni crisi che noi registriamo consiste esattamente nella incapacità da parte nostra a formulare modelli che siano in grado di riferirsi ad uno stato delle cose che risponda in grado sostanziale a come le cose stanno”.

credited_2816041074_6e9472fc9eLe ultime affermazioni potrebbero quasi suonare come l’inquietante profezia di un infausto futuro, addirittura un anatema contro coloro che si dilettano nella “rappresentazione della rappresentazione”! Non credo però che questa sia l’interpretazione giusta. Penso invece che valga come scossa: nulla sarà più come prima e proprio in una fase come questa, quando “qualcosa non c’è più”, ma altri schemi, modelli, riferimenti non esistono ancora, diviene di fondamentale importanza acquisire attitudini e competenze per vivere consapevolmente nel cambiamento e governarne i processi. Semmai è un tendere la mano verso chi, più o meno consapevolmente, oppone resistenze all’innovazione, magari in difesa di privilegi e di posizioni di potere. Un invito, quindi, a vincere il disagio determinato dal venir meno delle certezze che hanno caratterizzato lo sviluppo della società del secolo scorso per lasciare emergere la consapevolezza di vivere un momento storico straordinario, che non ha precedenti: la trasformazione su scala planetaria innescata da un processo che trova le sue origini nella capacità di gestione sempre più efficiente dell’informazione e nella sua condivisione globale.

Rimanendo al dominio dell’Informazione Geografica: le sue parole valgono un’esortazione a colmare la frattura che si può creare tra chi interpreta l’evoluzione dell’Informazione Geografica come occasione per rimarcare il predominio di un proprio sapere, l’appartenere ad una propria comunità, poco incline a lasciarsi contaminare e chi ha lasciato un porto sicuro per un viaggio nel mondo quale esso è. Un mondo che ora comprende anche l’ecosistema digitale, secondo il concetto introdotto dal prof. Massimo Giordani per descrivere la convergenza tra dinamiche evolutive e reti informatiche, e la capacità di tali sistemi di auto-organizzarsi. Percepisco “risonanze” tra le affermazioni di Farinelli e gli stimoli proposti da Giordani, osservatori entrambi dello stesso mondo da due prospettive differenti, eppure convergenti.  Può essere di viatico allora il suggerimento che ho ascoltato proprio dal prof. Giordani, riportato su TANTO qui: la necessità di focalizzare l’attenzione sulla convergenza cognitiva, poiché “il modo di accedere alle informazioni e relazionarsi con le altre persone è cambiato radicalmente e continuerà a mutare rapidamente verso una sempre più forte sovrapposizione fra atomi e bit “. Butto sul tavolo schegge d’informazione che il 2009 ci ha lasciato, catturate gloogando sulla profezia di Negroponte: da New York … e da Roma (quest’ultima registrazione è a tratti disturbata: le slide sono qui).  Sono arrivato ad esse grazie al blog di  Daniel Casarin.

Vorrei, e lo spero tanto, che sulle pagine di TANTO questo dialogo appena iniziato possa continuare ed espandersi, affinché le cose che ci ha detto il prof. Farinelli abbiano un seguito, ci aiutino a comprendere “l’esigenza di mettere a punto nuovi modelli del rapporto che esiste tra il sapere, la tecnica ed il funzionamento del mondo”. Poi noi lettori di questo blog avremo qualche strumento in più per vivere la nostra professione con maggiore consapevolezza e adesione al tempo in cui viviamo.


[1]Chiamo conviviale una società in cui lo strumento  non sia dominio riservato di una casta burocratica, non sfugga dalle mani di tutti esercitando selvaggiamente le funzioni intrinseche alla sua struttura, ma sia utilizzabile dalla persona integrata nella collettività, per realizzare le proprie intenzioni.” Ivan Illich (Convivialità, ed. Mondatori)

L'articolo Perché le cose che dice e scrive il prof. Farinelli mi piacciono tanto? è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

]]>
http://blog.spaziogis.it/2010/01/10/perche-le-cose-che-dice-e-scrive-il-prof-farinelli-mi-piacciono-tanto/feed/ 2 44.397522 8.968055 Il Geografo_-Jan_Vermeer_van_Delft_009 credited_2816041074_6e9472fc9e
E pur si muove! http://blog.spaziogis.it/2009/11/05/e-pur-si-muove/ http://blog.spaziogis.it/2009/11/05/e-pur-si-muove/#comments Thu, 05 Nov 2009 22:39:29 +0000 Sergio Farruggia http://blog.spaziogis.it/?p=1371 Il resoconto sulla conferenza GSDI mirava alla condivisione di alcune impressioni sul mondo della IG internazionale e anche di qualche riflessione rispetto al contesto nazionale. Rileggendolo prima di pubblicarlo, mi scappò un: “Non male!”. Così nacque il titolo di quel post. “Proprio non male!” mi viene da commentare, rileggendo quest’altro. Lo scorso 16 ottobre ho [...]]]> Il resoconto sulla conferenza GSDI mirava alla condivisione di alcune impressioni sul mondo della IG internazionale e anche di qualche riflessione rispetto al contesto nazionale. Rileggendolo prima di pubblicarlo, mi scappò un: “Non male!”. Così nacque il titolo di quel post. “Proprio non male!” mi viene da commentare, rileggendo quest’altro.

Lo scorso 16 ottobre ho trascorso la giornata all’Infrastructure Telematics & Navigation. Tutte le informazioni riguardanti questo evento si possono leggere sul sito ufficiale, qui.

Se siete rimasti incuriositi e siete ritornati a leggere queste righe dopo aver “sbirciato” le pagine dell’ITN, suppongo che sarete stati colpiti dal numero di enti, aziende e associazioni che hanno contribuito all’organizzazione e hanno partecipato a questo evento. Se avrete avuto poi la pazienza e la curiosità di consultare il programma delle conferenze, workshop informativi e seminari avrete forse provato a fare una cernita delle sessioni alle quali vi avrebbe fatto piacere assistere. Un programma veramente ricco di argomenti che hanno a che fare con le cose che ci piacciono TANTO! Purtroppo, ahimè, io vi posso solo riportare i contenuti di due workshop. Spero che resoconti più esaustivi siano disponibili sulla rivista GEOMEDIA (il cui direttore ha moderato il workshopGIS & MAPPING pro Mobility & Infrastructures”) e naturalmente, sulle pagine web degli organizzatori, INFRASTRUCTURA Torino e TELEMOBILITY Forum, e su altri portali di settore.

sergio_esm1

In mattinata ho seguito il workshop “Portable Navigation Device – Soluzioni e Servizi”. Il compito di introdurre il tema, fornire argomenti e riflessioni rispetto a quest’area di tecnologie e business emergenti è stato svolto da Massimo Giordani. Giordani crede fermamente nei valori positivi del cambiamento epocale che stiamo vivendo, è un attento osservatore dell’evoluzione della Rete e della convergenza digitale; per primo ha introdotto il concetto di ecosistema digitale. Nel suo breve ma efficace intervento, partendo da una rapida puntualizzazione sul valore di una rete (sviluppata richiamando i diversi modelli di rete: lineare, tipica del broadcasting, quadratica, riferibile per esempio al p2p ed esponenziale, quella, per intenderci, dei social network) e sul trend di crescita del numero di abitanti del pianeta connessi ai diversi network (mobile, internet, internet “veloce”, internet su mobile, …), ha posto l’accento sulla necessità di focalizzare l’attenzione sulla convergenza cognitiva; ovvero, senza trascurare quella di tipo tecnologico (inarrestabile), considerare e favorire soluzioni che ci accompagnino verso un diverso modo di imparare ad accedere alla rete e di relazionarci con le altre persone. Riprendendo un esempio citato dal relatore: siamo pronti culturalmente per interagire con questo? Questa convergenza avverrà in tempi brevi oppure occorreranno generazioni perché si concretizzi? Sollecitato da una domanda del pubblico, Giordani ci ha tranquillizzato: anche se passeranno forse decenni e saranno necessarie ulteriori evoluzioni tecnologiche prima che i comportamenti simbiotici con le tecnologie digitali siano ampiamente diffusi, la durata del processo non deve influenzarci negativamente. E’ invece importante che ci si adoperi fin d’ora rispetto alla convergenza cognitiva, per cogliere cammin facendo i vantaggi che quella digitale può offrire.

Andrea Recanatini, di Telematic Solutions SpA, ha illustrato le caratteristiche di un device per la navigazione, la tracciabilità e la sicurezza personale denominato Smart Street. Sostanzialmente il dispositivo è un navigatore su cui sono state integrate le funzionalità di un altro prodotto dell’azienda, con il quale, in caso di emergenza, premendo un pulsante si può richiedere soccorso in automatico. Potrebbe però accadere che la convergenza tra Mobile e Navigatori risulti più rapida di quanto preventivato dagli esperti marketing dell’azienda. Un’osservazione al riguardo è stata espressa da una giovane ascoltatrice. Secondo Recanatini, le analisi di prodotto e di mercato effettuate, escludono tale rischio ancora per diversi anni. Anche se la soluzione tecnologica è in parte differente, la presentazione alla quale ho assistito mi ha ricordato un demo visto in rete qualche anno fa: in veste di padre, che si ritiene al riparo da ansie nocive, mi aveva fatto sorridere. L’ho ricercato: qui una versione ovviamente rinnovata.

L’assessore al turismo del Comune di Vaiano ci ha accompagnato per i sentieri della Calvana. Non sapete dov’è? Nemmeno io fino all’altro giorno. Se ci capiterà di passare dalle parti di Prato, una digressione verso questo crinale, che fa da confine naturale con la provincia di Firenze, potrà essere motivo di sorprese e soddisfazioni. In questo caso sarà bene procurarsi la carta dei percorsi e la pubblicazione associata, redatte grazie alla collaborazione attiva degli abitanti della zona, di varie associazioni, sotto la regia della Provincia di Prato, che promuove e coordina il progetto “Le mappe dei cittadini”. Al termine, l’uditorio ha manifestato di apprezzare l’esempio di questa pubblica amministrazione nell’utilizzo dei PDN per costruire mappe “dal basso”. Perché, come leggo nel sito, aiutano a preservare la memoria storica e culturale di un luogo, favoriscono la promozione del territorio dal punto di vista turistico, agevolano il lavoro degli amministratori e, non ultimo, sono occasione di aggregazione della collettività.

Tutt’altra atmosfera ha accolto alla ripresa dei lavori, dopo la consueta pausa del coffee-break, il mio rientro in sala. Irene Celino, ricercatrice del CEFRIEL, mi ha accompagnato lungo i sentieri dell’Urban Computing, ovvero -ha spiegato la ricercatrice- quella branca del Pervasive Computing applicata al contesto urbano. Quindi lo studio dell’interazione uomo-macchina, dove qui per macchina va inteso un innumerevole insieme di apparati digitali, interconnessi in rete e distribuiti nell’ambiente, spesso nascosti alla vista perché immersi all’interno di ogni tipo di oggetto. Sto entrando in un campo irto di ostacoli per me, ma Celino mi è venuta in soccorso “virtuale”: ha pubblicato le slide proiettate durante la sua presentazione qui. Spero di avervi incuriosito, e vi lascio scorrere le immagini una ad una. Arriverete come è capitato a me alla slide n° 22 in cui viene illustrato il case study a cui stanno lavorando al CEFRIEL: mi trovo a Milano, vorrei acquisire informazioni per esempio sui monumenti che potrei visitare e anche su eventi a cui vorrei partecipare, e come raggiungerli. Oggi, per acquisire queste indicazioni devo consultare fonti diverse, direi che è l’operazione che faccio normalmente, però seduto davanti al laptop connesso in rete, con penna e foglio di carta per annotarmi orari, percorsi, indirizzi, saltando da un sito all’altro.

L’esempio è certamente una rappresentazione semplicistica di un contesto urbano e di un’esigenza personale, ma non dobbiamo dimenticare che di attività di ricerca si tratta. Infatti l’obiettivo della sperimentazione è quello di testare e migliorare l’architettura progettata in LARKC, piattaforma che consente di rispondere a interrogazioni in linguaggio SPARQL, inviando sia richieste a fonti Semantic Web (come Sindice e Dbpedia), sia a servizi Web2.0 (come Eventful), processando i dati per poi restituire le informazioni utili all’applicazione client che le visualizza sulla mappa di Milano. Mi è sembrato un esempio intrigante, assai vicino al connubio convergenza digitale-cognitiva. L’ambito dell’Urban Computing infatti coniuga argomenti di ricerca prettamente tecnici e temi di studio rivolti a immaginare e comprendere come potrà svilupparsi la nostra vita sociale, come potrà svolgersi la nostra giornata nella “città digitale”.

Un altro progetto di ricerca (come il precedente, co-finanziato nell’ambito del VII Programma Quadro) di cui sarà importante seguire gli sviluppi è Ima Geo. Il consorzio, per l’Italia è presente Neos s.r.l., intende sfruttare la convergenza tra mobile, camera, web (con attenzione al web2.0) per realizzare servizi sia per il turista, sia per la valorizzazione dei beni culturali. Il progetto è stato illustrato da Giovanni Giovinazzo, ricercatore di un’altra azienda del consorzio, la tedesca IN2: facendo riferimento a scenari e use case, ha impressionato l’uditorio mostrando come in un prossimo futuro, grazie alle tecnologie GNSS, le immagini geo-localizzate e geo-orientate catturate con i nostri PDA potranno essere arricchite con altre riprese e contenuti acquisite dalla rete. Non solo, ognuno di noi potrà arricchire le scene così integrate con proprie informazioni e conoscenze, stimolando la comunicazione e la condivisione di esperienze tra compagni di viaggio virtuali.

Sarà interessante e utile favorire anche l’osmosi tra questo contesto di ricerca, quello del governo delle città e -non meno importante- la pluralità dei cittadini. Solo dal dialogo, dal confronto è possibile dare concretezza alle sperimentazioni, dare un pizzico di creatività alla burocrazia, liberare la fantasia dei cittadini.

Gli interventi successivi ed anche quelli della sessione “Navigation & Tourism” a cui ho partecipato nel pomeriggio mi hanno permesso di acquisire un quadro abbastanza articolato di quante possibilità la convergenza digitale offra già oggi in questo settore, in termini sia di prodotti che di servizi. E quanto siano importanti approcci creativi e attitudine all’innovazione per cogliere le opportunità imprenditoriali e trasformarle in occasioni di business. Questa riflessione potrà sembrare ingenua al lettore già attento e addentro a questo segmento del mercato dell’Informazione Geografica, quindi informato sulle ormai numerose esperienze che studiosi, ricercatori, imprenditori e semplici appassionati stanno creando grazie alla Rete, nella Rete, per la Rete. E’ vero: dichiaro subito che condividerò totalmente questo giudizio. E aggiungo -facendo autocritica- che nel tempo che dedico al surfing finora è stato più facile che sia stato colpito da esperienze straniere, come questa “Rebuilding a City through Community, Neogeography, and GIS“ piuttosto che stimolato a cercare di approfondire lo stato dell’arte in ambito nazionale. Sono forse vittima di una barriera, di un solco che si è creato tra comunità dell’Informazione Geografica? Ormai da diversi anni il call for paper della conferenza annuale ASITA propone agli autori temi quali Web2.0, ubiquitous GI, Location Based Services, ecc.. Ma il numero di contributi inviati su questi argomenti sono raramente sufficienti per consentire di inserire nel programma della conferenza qualche sessione al riguardo. Penso che se avrò ancora l’opportunità di partecipare alla sua organizzazione (ormai l’edizione del 2009 è alle porte) mi adopererò perché questo solco sia colmato.

Per tornare al resoconto della giornata torinese, posso citare un esempio che mi ha intrigato molto perché è stato introdotto con questa premessa: “Siamo un gruppo di appassionati di sport all’aria aperta. Usiamo gps, navigatori ecc., ecc., per organizzare i nostri viaggi, le nostre gite: abbiamo pensato che quanto andavamo raccogliendo e le esperienze che stavamo facendo potessero anche essere alla base di un’attività professionale”. Insomma, sintetizzando: hobby web2.0-geoweb-mobile-gps professione GIScover hobby. E’ seguito il racconto di un’esperienza fatta da alcune scolaresche di Riva del Garda, alla scoperta della loro città (qui, le slide della presentazione).

Ma l’attività di questi professionisti non è rimasta legata all’ambito del contesto ludico e formativo: il fondatore di GIScover, Massimo Nicolodi, proprio all’interno della sessione “Navigation & Tourism” ha presentato i contenuti di una collaborazione con Ataf, l’azienda di trasporto pubblico dell’area metropolitana fiorentina. Potete leggere i contenuti salienti del progetto illustrato qui.

Un altro esempio di iniziativa sorta da una passione dei suoi fondatori è eGuides, con sede nel Monferrato. Anche in questo caso, infatti, come ho potuto ascoltare da Massimo Colognesi, direttore tecnico dell’azienda, lo spunto è scaturito dalla competenza acquisita nell’ambito di attività legate al tempo libero, partendo da un progetto per far conoscere al turista le bellezze, anche nascoste, di questa parte d’Italia. Mi ha incuriosito l’aspetto marketing dell’iniziativa, come vengono promossi i loro prodotti sia in rete, grazie alle sinergie con quest’altra iniziativa, attraverso la presenza di link su siti turistici, come questo , sia attraverso reti fisiche, quali -appunto- i distributori ESSO o presso gli hotel, i ristoranti e altre strutture ricettive. Infine, voglio segnalare la possibilità offerta ai professionisti che operano nel settore dello sviluppo applicazioni e siti web, di diventare sviluppatori “eGuides” autonomi, grazie ad un modulo software disponibile su licenza.

Infine, sempre in tema di prodotti innovativi, vorrei ricordare quest’ultima iniziativa “di casa mia”. Si tratta di ELIOS, spin-off del Dipartimento di Ingegneria Biofisica ed Elettronica (DIBE) dell’Università di Genova. Massimiliano Marangone, ci ha illustrato un’applicazione multimediale mobile per l’orientamento dei non vedenti all’interno di un percorso turistico (per esempio un museo). Grazie all’impiego di sensori RFID, PDA ed allo studio delle esigenze e dei comportamenti delle persone non vedenti, l’equipe genovese ha realizzato strumenti in grado di rendere a loro accessibili spazi altrimenti inavvicinabili. Ha detto Marangone: “La soddisfazione maggiore è stata quella di avere ascoltato dalla viva voce di una ragazzina la gioia per essere stata per la prima volta lei, sempre accompagnata dalla mamma, la guida dei suoi genitori lungo il percorso museale di una villa”.

Altri interventi mi hanno invece aiutato a capire, o meglio, a intuire cosa si cela dietro il richiamo di Giordani sull’importanza di accompagnare la convergenza digitale con la convergenza cognitiva. Già mi è difficile “stare al passo” per imparare ad utilizzare nuovi dispositivi! Sarà per me veramente una sfida acquisire consapevolezza su come questi possano influire sui miei comportamenti, sui modi di vivere la realtà quotidiana, di vivere i rapporti sociali. Può aiutarmi, aiutarci, seguire esperienze come quella raccontata da Alessandro Brella, presidente di IZMO. La sfida che questa associazione culturale torinese persegue, riguarda l’applicazione di queste tecnologie per favorire i rapporti tra gli abitanti e il quartiere, la fruizione degli spazi, le relazioni sociali. In particolare, Brella ha illustrato i dati salienti dell’iniziativa INSITO, una metodologia integrata volta alla costruzione sociale e partecipativa di una conoscenza territoriale, promossa e sperimentata proprio nel quartiere di Torino ove l’associazione ha sede. Un mix di esperimenti di deriva urbana, interviste a staffetta, cartografia partecipata (come dire “psicogeografia”) e focus groups. A me, “web-provincialotto” incallito è venuta alla memoria quest’altro progetto (MIT, 2006): REAL TIME ROME. Ma sono stato immediatamente punito, e mi sta bene! Ricordavo bene, il direttore del SENSEable City Lab’s è un italiano, Carlo Ratti, laureato al Politecnico di … Torino.

Insito, cartografia partecipata

Mentre un olandese che vive e opera -ma ha più senso fare riferimento al luogo fisico?- a Torino è Mark Vanderbeeken. Ha raccontato con brio come sia possibile fruire di tutte le tecnologie interattive disponibili (tagging RFID, telefoni cellulari, Internet, display di grandi dimensioni ecc) per pianificare un viaggio in treno: dalla pianificazione dell’itinerario, all’acquisto del biglietto, alla gestione dei ritardi (sic!). Ci ha fatto intendere come tutte queste “diavolerie” possono aiutare e gestire in maniera dinamica e tempestiva le informazioni. Soprattutto ci ha introdotto su come sia possibile e gratificante procedere ponendosi dalla parte del viaggiatore: analizzando diversi tipi di esigenze di viaggio, differenti momenti (a casa, nel percorso verso la stazione, in carrozza, in attesa di una coincidenza, …). Ho usato il treno per partecipare all’ITN, come dire… avrei voluto TANTO! Ho appreso anche una lezione di umiltà quando è stato chiesto a più voci: “Il cliente ha acquisito i risultati delle vostre analisi, le soluzioni prospettate?”. Ha evidenziato i limiti oggettivi e soggettivi che hanno impedito il passaggio ad una fase esecutiva.

Non posso concludere questo resoconto, senza riportare qualche scheggia della relazione svolta da Germano Paini, studioso del web2.0 ma anche imprenditore del settore. Ci può aiutare a trovare degli argomenti, degli spunti, forse un filo di Arianna, per non perderci nel labirinto della rete. E’ vero, come ha detto nel suo intervento, che nella rete tutto è “iper”, sovrabbondante, incontrollabile. Ma tutto è anche approssimativo, disperso, scoordinato, spesso molto poco pertinente. Però, osserva, quando abbiamo bisogno di informazioni e di conoscenze noi cerchiamo “pertinenza”, cioè desideriamo che la conoscenza sia adeguata, mirata, corrispondente. Paini ha introdotto il concetto di “iper-pertinenza”, per significare la sintesi tra una conoscenza adeguata alle nostre esigenze e l’iperbolicità della rete, ottenuta esaltando le connessioni ed i legami. L’iper-pertinenza, allora, offre le metodologie e gli strumenti per costruire conoscenze ricche ma non dispersive, mirate ma coordinate, focalizzate ma plurali, consolidate ma aperte. La sua presentazione si è focalizzata su come possono essere utilizzati i qr-code associati ai manifesti pubblicitari, “catturati” attraverso una foto effettuata con un dispositivo connesso in rete e quindi utilizzato per la scelta di contenuti pertinenti, per inviare commenti fino ad innescare un processo di viral marketing. Approfondirò l’argomento, magari aiutandomi (e facendomi aiutare) da ThinkTag.

Mi sto allontanando dalla Geographic Information? No, non penso. E’ che “la geografia evade dai suoi confini ed invade il quotidiano”. Non è vero amici di TANTO? Attendiamo quindi ansiosi nuovi stimoli dal GISDay 2009 di Palermo.

L'articolo E pur si muove! è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

]]>
http://blog.spaziogis.it/2009/11/05/e-pur-si-muove/feed/ 11 44.397522 8.968055 sergio_esm1 Insito, cartografia partecipata
Comunità geomatica. A che punto è la notte? http://blog.spaziogis.it/2009/09/23/comunit-geomatica-a-che-punto-la-notte/ http://blog.spaziogis.it/2009/09/23/comunit-geomatica-a-che-punto-la-notte/#comments Wed, 23 Sep 2009 12:00:30 +0000 Pietro Blu Giandonato http://blog.spaziogis.it/?p=1302 Una cosa è discutere tra noi “addetti del settore” (“geek” NdT) di aspetti tecnici, un’altra curare il marketing delle nostre creazioni, delle nostre aziende, e un’altra ancora usare i nuovi media per tendere una mano e aiutare le nuove generazioni. Queste parole di Jeff Thurston mi hanno letteralmente folgorato quando le ho lette sul suo [...]]]>

Una cosa è discutere tra noi “addetti del settore” (“geek” NdT) di aspetti tecnici, un’altra curare il marketing delle nostre creazioni, delle nostre aziende, e un’altra ancora usare i nuovi media per tendere una mano e aiutare le nuove generazioni.

Queste parole di Jeff Thurston mi hanno letteralmente folgorato quando le ho lette sul suo blog VectorOne. E mi hanno spinto a dire la mia. Stiamo parlando di tecnologie geospaziali, tanto per essere chiari, e del mondo dei media che ruotano loro attorno.

Con Andrea, Massimo e altri (pochi) amici – appunto “addetti ai lavori” – ci confrontiamo spesso su come e dove stia andando la blogosfera geomatica in Italia, e ci chiediamo “a che punto siamo”. Per come la vedo io, in una fase di sostanziale stallo, nella quale il livello della comunicazione sembra non riesca a evolvere verso una comunità nella quale tecnici, tecnologi, utenti, aziende, sviluppatori riescano a costituire una massa critica capace di dare vita a idee, soluzioni tecnologiche, nuovi settori di mercato che siano autenticamente innovativi. E al tempo stesso costruire una base di conoscenze, una risorsa/feedback per la comunità stessa, anche e soprattutto per i “newbie”, coloro che si avvicinano per la prima volta alla geomatica.

Thurston – citando Carlson – evidenzia come il punto debole dei nuovi media su web (in primis i blog) sia l’essere essenzialmente orientati verso la “numerosità dei collegamenti”: più si è linkati, più vuol dire che si è letti, più si è letti, più si è importanti. Un cortocircuito pericoloso che porta al “doping” dell’informazione.

Focalizzando la questione sulla geomatica, sempre citando Thurston

La domanda più importante per la nostra comunità è legata al modo in cui essa si collega allo sviluppo della ricerca, alla formazione, lo studio dell’ingegneria, delle scienze dell’informazione geografica e di tutte le discipline connesse.

[…]

E se i nuovi media siano solamente uno strumento di marketing, o possano essere usati per costruire capacità, supportare altre persone non ancora coinvolte e in che modo poter fare questo. Del resto, nuovi mercati richiedono nuovi clienti.

Clienti, utenti, tecnici, professionisti, studenti consapevoli, aggiungerei io. Si tratta dunque di capire se vogliamo – come attori della comunità geomatica – convergere dalle rispettive posizioni di: aziende votate esclusivamente al marketing, tecnologi e sviluppatori concentrati essenzialmente sulle soluzioni tecnologiche migliori, mondo della ricerca scollegato da quello del mercato, per creare le giuste sinergie che riescano a dar luogo a una massa critica, e un livello dell’informazione costantemente in evoluzione.

Ecco che dunque le aziende illuminate, che producono reale valore aggiunto per la comunità geomatica, sono quelle che promuovono periodicamente concorsi di idee, awards, incentivano la ricerca anche nei singoli, che puntano sull’educazione e sulla formazione nelle scuole. Gli editori, le associazioni più lungimiranti sono quelli che puntano sull’organizzazione di eventi che stimolano l’incontro tra innovatori, mettono a confronto progetti. E per quanto riguarda i media, sempre Thurston:

Qual’è l’equilibrio nella blogosfera geospaziale? Diamo valore alle opinioni e alle differenze di pensiero? O piuttosto cerchiamo l’omologazione orientata al mero conteggio dei link?

Vincente, autenticamente innovativo è l’approccio che porta proprio alla valorizzazione delle differenze dei punti di vista, che mette in discussione lo status quo.

A che punto è la notte, secondo voi, in Italia?

A mio parere i pochi editori “puri” attivi nel settore sono troppo incentrati sul mondo delle imprese, trascurando gli aspetti della ricerca e dell’innovazione. Aspetti che possono invece essere curati e incentivati proprio dalle stesse aziende e rilanciati dalla blogosfera. Quest’ultima ha a sua volta un ruolo fondamentale di stimolo e pungolo sia per il mercato della geomatica, mettendo a confronto le soluzioni tecnologiche commerciali e aperte, sia come punto di riferimento per lo stuolo di nuovi utenti, professionisti e studenti, che sempre più numerosi si avvicinano al nostro mondo, e che chiedono aiuto, orientamento e incoraggiamento.

L'articolo Comunità geomatica. A che punto è la notte? è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

]]>
http://blog.spaziogis.it/2009/09/23/comunit-geomatica-a-che-punto-la-notte/feed/ 5 The Blogosphere
Editing vettoriale con OpenLayers http://blog.spaziogis.it/2009/09/21/editing-vettoriale-con-openlayers/ http://blog.spaziogis.it/2009/09/21/editing-vettoriale-con-openlayers/#comments Mon, 21 Sep 2009 07:28:55 +0000 Alessio Di Lorenzo http://blog.spaziogis.it/?p=1251 Ultimamente mi è stato richiesto un applicativo di webmapping che mettesse chiunque (o quasi…) in condizione di gestire agevolmente un geodatabase, aggiornando nel tempo le informazioni contenute, comprese le feature geografiche. In due parole: un gestionale web, ma con delle funzionalità proprie dei GIS desktop. Il committente ha richiesto una soluzione open source ed io [...]]]> pencilUltimamente mi è stato richiesto un applicativo di webmapping che mettesse chiunque (o quasi…) in condizione di gestire agevolmente un geodatabase, aggiornando nel tempo le informazioni contenute, comprese le feature geografiche. In due parole: un gestionale web, ma con delle funzionalità proprie dei GIS desktop.
Il committente ha richiesto una soluzione open source ed io sono stato ben contento di proporre il rodato quartetto composto da UMN-Mapserver, PostGIS, PHP e MapFish.
In passato avevo già realizzato qualcosa di simile, ma si trattava di inserire dei punti a partire da una coppia di coordinate, operazione semplicissima grazie a PostGIS. Questa volta era necessario che l’utente disegnasse le geometrie online, direttamente nella finestra del browser, ed ho colto l’occasione per dare finalmente un’occhiata alle funzioni di editing vettoriale di OpenLayers 2.8. Ne sono rimasto estremamente soddisfatto, come sempre avviene quando si tratta di OpenLayers.
Scorrendo la pagina degli esempi ed inserendo il filtro “vector”, ci si rende subito conto della potenza dei controlli dedicati all’editing.

Grazie agli esempi, che coprono quasi tutto lo spettro delle possibilità, è stato facile produrre la parte client del mio lavoro.
L’editor ottenuto è adattabile a qualsiasi back-end “spatial enabled”, è indipendente dal mapserver scelto per pubblicare i dataset online, dal geodbms usato per contenerli e dal linguaggio di programmazione lato server.
Il cuore del client è costituito dalle funzioni presentate in questo esempio, che consentono di disegnare una feature da serializzare sotto forma di stringa in ben 6 formati standard differenti. Ottenuta la stringa, il gioco è fatto: uno script lato server si occupa di recuperarla e lanciare una query di inserimento nel geodabase (ci sono, come sempre, anche altre soluzioni).
L’operazione inversa, vale a dire deserializzare una stringa ed ottenere una feature, è ugualmente possibile e può essere molto utile.
Per esempio, volendo rifinire degli shapefile su una base Google Maps o Openstreetmap, basta trasformarli KML (o in uno degli altri 5 formati supportati), aprire il file con un editor di testo e, infine, copiare ed incollare il contenuto dentro la textarea del nostro editor. A questo punto si è liberi di modificare a piacimento le feature importate.
Questo è solo un esempio grezzo di import, dispobile “out of the box”, ma una volta collegato l’editor ad un back-end spaziale si può dare sfogo alla fantasia e creare delle funzioni di importazione più raffinate.

vector editing con openlayers

Cliccando qui potete vedere una versione super-generica del client di editing da me realizzato. Ho usato MapFish 1.1[1] per dare un aspetto un po’ più carino[2] al tutto ed ho modificato il codice degli esempi affinché le diverse funzioni di editing potessero essere attivate da una toolbar invece che da una serie di checkbox e radiobutton. I commenti nel codice dovrebbero essere abbastanza esplicativi.

[1] Si tratta di una versione leggermente modificata in cui ho sostituito OpenLayers 2.7 con OpenLayers 2.8

[2] Qualcuno potrebbe cimentarsi con Dojo o jQuery… sono sicuro che non verrebbe affatto male ;)

Nota
Devo scusarmi con i lettori di TANTO iscritti al feed RSS.
Stamattina ho accidentalmente cliccato sul bottone “Pubblica” mentre scrivevo la bozza e nonostante mi sia precipitato a recuperare, non sono riuscito ad evitare che l’articolo incompleto finisse nel feed. Per farmi perdonare mi sono incollato al computer ed ho fatto il possibile per finire l’articolo e la demo alla svelta! In futuro starò più attento a dove clicco e soprattutto non inizierò a scrivere bozze di domenica mattina prima di colazione! :)

L'articolo Editing vettoriale con OpenLayers è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

]]>
http://blog.spaziogis.it/2009/09/21/editing-vettoriale-con-openlayers/feed/ 19 pencil vector editing con openlayers
Una mappa da bere ed un servizio per guardare in profondità http://blog.spaziogis.it/2009/09/02/una-mappa-da-bere-ed-un-servizio-per-guardare-in-profondita/ http://blog.spaziogis.it/2009/09/02/una-mappa-da-bere-ed-un-servizio-per-guardare-in-profondita/#comments Wed, 02 Sep 2009 14:50:07 +0000 Andrea Borruso http://blog.spaziogis.it/?p=1188 A Luglio, grazie alla gentilissima Eleonora Anello di envi.info,  ho scoperto dell’esistenza del progetto WATERMAP. Si tratta di una mappa di Roma in cui sono rappresentate tutte le fontane che erogano acqua potabile in città. Nasce per far in modo che i turisti ed i residenti possano localizzare velocemente una fonte di ristoro, ed al [...]]]> A Luglio, grazie alla gentilissima Eleonora Anello di envi.info,  ho scoperto dell’esistenza del progetto WATERMAP. Si tratta di una mappa di Roma in cui sono rappresentate tutte le fontane che erogano acqua potabile in città. Nasce per far in modo che i turisti ed i residenti possano localizzare velocemente una fonte di ristoro, ed al contempo come strumento  per muoversi con facilità per visitare musei e attrazioni (rappresentati insieme alle fontane sulle mappe).

A Roma arrivano 4 milioni di turisti l’anno, vengono erogati circa 1,5 milioni di metri cubi d’acqua potabile al giorno e vengono effettuati 200.000 controlli l’anno. Sono numeri importanti che hanno molto di più un valore statistico. Il progetto WATERMAP, sviluppato dalla Energie Healthness Concept, ha infatti anche l’obiettivo di fare comprendere ai cittadini l’importanza della diffusione dell’acqua potabile, come mezzo di contrasto dell’inquinamento ambientale.
Noi italiani siamo grandi consumatori di acqua minerale, ” basti considerare che a causa dell’uso di bottiglie di plastica e per il consumo di petrolio per fabbricarle, nel 2006 sono state utilizzate 665 mila tonnellate di petrolio e un’emissione di gas serra di circa 910 mila tonnellate di CO2 (fonte Legambiente). Senza considerare, inoltre, la fase del trasporto dell’acqua, che in Italia avviene principalmente su gomma, influendo negativamente sulla qualità dell’aria.

Da amante di cartografia, avevo cercato la mappa sul sito, ma senza fortuna. Ieri Simona Forti (anche lei gentilissima), che si occupa per il progetto di comunicazione e relazioni web, mi ha segnalato che è possibile finalmente scaricare la mappa. L’ho fatto subito e qui sotto ne ho creato una versione (un po’) interattiva. Il progetto mi piace molto perché concilia (come dovrebbe essere sempre) servizi di pubblica utilità con l’attenzione alla salute del pianeta


Il servizio web con cui ho pubblicato questa versione interattiva di WATERMAP si chiama ClosR. E’ un progetto italiano che concilia la facilità di pubblicazione sul web di immagini ad alta risoluzione, con un’efficacissima modalità di fruizione. Gli ambiti di applicazione sono tanti: quello medicale, quello cartografico, quello dei beni culturali, etc..

E’ di facilissimo utilizzo: basta iscriversi ed usare un semplice modulo di upload. Alla fine del processo viene generato un URL univoco per l’immagine caricata, e viene fornito il codice per inserire il visualizzatore su qualsiasi pagina web (è quello che ho fatto per questo post). Molta bella la visualizzazione fullscreen, che si attiva cliccando sul tasto in alto a destra del visualizzatore.

E’ bello scrivere di progetti italiani come i due di questo post.

L'articolo Una mappa da bere ed un servizio per guardare in profondità è apparso originariamente su TANTO. Rispettane le condizioni di licenza.

]]>
http://blog.spaziogis.it/2009/09/02/una-mappa-da-bere-ed-un-servizio-per-guardare-in-profondita/feed/ 1