Il futuro è libero. Software open source nella PA

linux_distros
“Il tempo costituisce un bene della vita e, pertanto,
il ritardo nella conclusione di un procedimento
comporta un costo e causa un danno che,
se accertato e adeguatamente provato, va comunque risarcito”
Una recente sentenza del Consiglio di Stato ha riconosciuto il legittimo risarcimento del danno biologico per i ritardi dovuti all’inefficienza della Pubblica Amministrazione. Questo episodio è sintomatico della necessità di una riorganizzazione procedurale delle attività svolte in ambito pubblico.
Nel corso degli ultimi dieci anni, tuttavia, il modo di operare delle organizzazioni locali, regionali e statali ha già cominciato un processo di cambiamento radicale, non solo per quanto riguarda l’accessibilità delle informazioni attraverso applicazioni web ma anche per quanto concerne l’interoperabilità che coinvolgono più dipartimenti e settori della pubblica amministrazione.
Uno strumento utile a tal fine e che sta attraversando un periodo di crescente attenzione, da parte degli utenti così come degli studiosi e delle istituzioni, è l’Open Source Software (OSS). Con tale espressione si fa riferimento a “software” in cui l’autore ha stabilito di concedere una serie di fondamentali libertà all’utilizzatore attraverso un “license agreement”: tra queste libertà figurano la possibilità di studiare il funzionamento del programma, di adattare il codice sorgente alle proprie esigenze, di aggiornare il programma, di utilizzarlo per ogni scopo e su qualsiasi numero di macchine e di ridistribuire copie del programma ad altri utilizzatori.
Sebbene la tecnologia open source non rappresenti una novità per la pubblica amministrazione, sta rivestendo un ruolo sempre più importante nello sviluppo della prossima generazione di applicazioni informative altamente scalabili. Molte di queste applicazioni sono basate sullo stack software open source LAMP (Linux, Apache, MySQL, PHP / Python / Perl), che costituisce la principale infrastruttura per lo sviluppo e utilizzo di applicazioni economicamente vantaggiose.
Nell’ambito dell’Unione Europea sono state varate iniziative specifiche per la promozione e diffusione delle risorse informatiche a codice aperto sia nel settore pubblico sia nel mondo imprenditoriale privato. La Commissione Europea ha predisposto un programma denominato IDABC ovvero “Interoperable Delivery of European eGovernment Services to public Administrations, Business and Citizens”, finalizzato all’utilizzo delle opportunità offerte dalle tecnologie della comunicazione e dell’informazione, a fornire consulenza e sostegno per i servizi del settore pubblico nei confronti dei cittadini e delle imprese in Europa, nonché a migliorare l’efficienza e la collaborazione fra le pubbliche amministrazioni europee.
La Commissione Europea ha, quindi, assunto una linea propositiva nei confronti degli Stati Membri nella direzione dell’open source nell’ambito del proprio programma generale di armonizzazione delle procedure gestionali nel settore pubblico.
In Italia la possibilità di acquisizione ed utilizzo di programmi informatici “open source” viene sancita con la pubblicazione della Direttiva del 19 dicembre 2003 “Sviluppo ed utilizzazione dei programmi informatici da parte delle PA” (G.U. 7 febbraio 2004, n. 31).
L’emanazione di tale Direttiva è sintomatica di come anche le istituzioni italiane abbiano preso consapevolezza della rilevanza e delle potenzialità dell’OSS, anche se accompagnata da un atteggiamento di prudenza, in relazione alle possibili criticità.
Di ciò si ha chiara evidenza nelle scelte operate dalle istituzioni, che stanno investendo molto per arrivare ad un’analisi e ad un monitoraggio costante del fenomeno relativo all’utilizzo di OSS da parte della P.A.
Gli elementi che rendono l’OSS così interessante per la P.A. possono essere sintetizzati come segue:
• maggiore interoperabilità: il software open source si basa tipicamente su standard aperti, il che facilita la condivisione di informazioni rispetto ai sistemi di tipo proprietario.;
• eliminazione del lock-in: l’open source è flessibile ed elimina la dipendenza da una particolare piattaforma o un particolare fornitore;
• maggiore sicurezza: gli studi hanno dimostrato che il software open source è più affidabile e più sicuro rispetto al software di tipo proprietario. Quando sono necessarie delle patch, queste sono tipicamente disponibili in poche ore, anziché in giorni o mesi,
• minore costo totale di gestione: gli studi hanno dimostrato che la migliore affidabilità e produttività del software open source, unite ai minori costi per hardware e software, possono generare un costo totale di gestione inferiore del 90% rispetto al tradizionale software di tipo proprietario.
Le difficoltà principali, invece, sono dovute alla “non conoscenza” dei prodotti OS da parte del personale informatico e dalla presenza di diversi applicativi, magari anche datati, di cui le software house produttrici non hanno il know-how necessario per un porting su sistemi operativi OS.
Il lavoro più impegnativo risulta quindi essere quello di formare nel minor tempo possibile, con delle skill abbastanza elevate, il personale delle PA aggravando in questo modo le spese delle amministrazioni.
In sintesi, è semplicistico pensare che nella PA sia possibile, senza sforzo iniziale e competenze interne, beneficiare di aggiornamenti e potenziamenti gratuiti, nel quadro di un sistema a codice sorgente aperto. D’altronde molte di queste considerazioni valgono anche per gli sviluppi proprietari.
Forse il paradigma OSS può contribuire ad applicare buone regole troppo spesso solo enunciate e ad attivare un ciclo virtuoso di sviluppo del software, in un modello di business originale e promettente.
La partita è aperta e, specialmente nella Pubblica Amministrazione, avvincente.
Per Approfondimenti:
– Open Source Observatory and Repository http://www.osor.eu/
– Petizione Bundestux (Germania) http://www2.bundestux.de/bundestux_alt/english.html
– DigitPA – Ente nazionale per la digitalizzazione della pubblica amministrazione http://www.digitpa.gov.it/

Design autoprodotto – necessità o virtù

chiuso-il-festival-open-design-italia-l-ascesa-design-autoprodotto-continua

“Childhood Memories I” by Nicolas Cheng – vincitore dell’OpenDesignItalia 2010

Da alcuni anni aumentano sempre più gli eventi e le manifestazioni, come la Operae Design Shop&Show, la Tent London e i vari MART di Designboom, che vedono protagonisti designer che praticano l’autoproduzione dei propri progetti.

In un mercato ormai saturo di prodotti industriali, il design autoprodotto sta prendendo sempre più piede. Le categorie merceologiche sono le più varie e spaziano dagli oggetti per l’arredamento a quelli per la persona, frutto della creatività e del lavoro di designer che gestiscono direttamente l’intero processo progettuale, dalla definizione dell’idea fino alla sua produzione e distribuzione.

Un nuovo fenomeno oggi  al centro dei dibatti delle design week internazionali, una nicchia meno conosciuta e meno recensita ma decisamente molto produttiva.

L’autoproduzione, se sul piano teorico costituisce una sorta di affermazione di autonomia, in pratica si traduce spesso in una vera e propria strategia autopromozionale, con la quale i giovani designer cercano di entrare in contatto con il mondo dell’industria, con la speranza di stabilire un rapporto di collaborazione. Altre volte costituisce invece un passo verso forme di produzione gestite in proprio, tra l’artigianato e la piccola serie, si delinea così una figura di designerartigiano o di designer-piccolo imprenditore. Muovendo sempre da un rinnovato interesse per la manualità e la sperimentazione diretta sulla materia, l’autoproduzione può diventare dunque la via maestra per coinciliare il bisogno di creatività di giovani designer.

“Noi facciamo, noi produciamo” sembra essere questo il motto degli studenti della facoltà di Design e Arti della Libera Università di Bolzano che sono sbarcarti al FuoriSalone di Milano con FUCINA, una collezione di oggetti autoprodotti. Un’idea coraggiosa se si pensa a un sistema in cui università e mondo del lavoro si parlano poco e l’imprenditorialità giovanile è un fenomeno ormai  raro che si perde nelle tortusità della burocrazia. Proprio per questo il nome FUCINA, un luogo dove idee appena nate e ancora “incandescenti” possono essere affinate e forgiate fino a realizzare un prodotto maturo per il mercato.

A dare il via a questo progetto under 30, l’ impulso del preside Kuno Prey con la collaborazione di uno studente di design Nicola Gatti e un neolaureato in economia Arnbjorn Eggerz, che insieme hanno studiato la piattaforma per la gestione e la distribuzione dei progetti realizzati dagli studenti negli ultimi anni.

È interessante notare come i nuovi designer che non abbiano accesso diretto al processo industriale, ma un forte bisogno di produrre i proprio oggetti, con la pratica dell’autoproduzione e con risorse limitate, stiano trasformando il volto del nuovo design contemporaneo.

Open Space Technology (OST)

DSC_0120

Izmo utilizza questo strumento principalmente in relazione alle attività di Animazione territoriale e Moderazione e facilitazione, e ha avuto modo di applicarlo concretamente nel corso del progetto OST –  Open Space Technology Corso Farini, a domani!
Riteniamo che la seguente definizione sia la più idonea per descrivere tale strumento
Izmo use this tool mainly in relation to the activities of Social events and Moderation and facilitation, Izmo was able to apply it in practice during the project OST – Open Space Technology Corso Farini, a domani!

For a english treatment of Open Space Technology, the reader should refer to http://en.wikipedia.org/wiki/Open_Space_Technology

La tecnica Open Space è stata creata nella metà degli anni ´80 da un esperto americano di scienza delle organizzazioni, Harrison Owen, quando si rese conto che le persone che partecipavano alle sue conferenze apprezzavano più di ogni altra cosa i coffee break. I seminari organizzati secondo la metodologia OST non hanno relatori invitati a parlare, programmi predefiniti, o espedienti organizzativi. I partecipanti, seduti in un ampio cerchio, apprendono nell’arco della prima mezz’ora come faranno a creare la propria conferenza. Chiunque intende proporre un tema per il quale prova sincero interesse, si alza in piedi e lo annuncia al gruppo, e così facendo assume la responsabilità di seguire la discussione e di scriverne il resoconto. Quando tutti gli intenzionati hanno proposto i propri temi, viene dato avvio alla prima sessione di lavoro e si comincia. Alla fine della giornata sarà distribuito ai partecipanti il resoconto di tutte le discussioni svolte.
Pochi elementi guidano l’evento. Quattro principi:
1. chi partecipa è la persona giusta;
2. qualsiasi cosa succeda va bene;
3. quando si inizia si inizia;
4. quando si finisce si finisce.
E la legge dei due piedi: “se ti accorgi che non stai né imparando né contribuendo alle attività, alzati e spostati in un luogo in cui puoi essere più produttivo”. All’interno dell’OST vengono riconosciuti comportamenti che tutti tendiamo ad assumere in situazioni collettive, ma in un contesto in cui le buone maniere sono temporaneamente ribaltate: non è scortese spostarsi da un luogo all’altro, anche mentre qualcuno sta parlando, e non lo è allontanarsi da un gruppo di lavoro se ci si vuole intrattenere con qualcuno. In sintesi nell’OST gli unici responsabili di un evento noioso o poco stimolante sono i suoi stessi partecipanti, e questa consapevolezza, inspiegabilmente, rende i lavori più intensi, appassionati e produttivi. Nessuno ha totalmente il controllo di ciò che sta succedendo, ma il risultato è di straordinaria creatività e responsabilizzazione.

fonte: Bobbio L. (a cura di), 2004, A più voci. Amministrazioni pubbliche, imprese, associazioni e cittadini nei processi decisionali inclusivi, Napoli, ESI.

GIS – Geographical Information Systems

gis

di ALESSANDRO il 18 aprile 2006

Definizione

Un Sistema Informativo Geografico, o GIS (da Geographic Information System), è un Sistema informatico per l’acquisizione, conservazione, analisi e visualizzazione di dati geografici. Viene definito sistema in quanto costituito da un insieme di componenti, hardware, software e umane, che interagiscono fra loro. Caratteristica essenziale di un GIS è la capacità di gestire dati geografici, o georeferenziati, vale a dire dati relativi ad elementi od oggetti della superficie terrestre la cui posizione è definita da un insieme di coordinate.

Il modello dei dati

In un GIS tutti gli oggetti presenti sulla superficie terrestre sono rappresentati mediante tre caratteristiche essenziali: la geometria, la topologia e gli attributi. La geometria riproduce la forma degli oggetti e viene ricondotta a tre elementi di base: punto, linea (o arco) e poligono (o area). Un punto viene utilizzato per riprodurre elementi puntiformi, come ad esempio un punto quotato, un pozzo, o la posizione di una stazione meteorologica. La linea definisce elementi a sviluppo lineare come una strada, una linea elettrica o un corso d’acqua. Il poligono definisce aree chiuse, come un edificio, un lago o un affioramento geologico.

La topologia è l’insieme delle informazioni che riguardano le mutue relazioni spaziali tra i diversi elementi come la connessione, l’adiacenza o l’inclusione. Ad esempio viene specificato se un arco è comune a due poligoni adiacenti, o se un poligono è completamente racchiuso all’interno di un altro.

Gli attributi rappresentano i dati descrittivi dei singoli oggetti reali. Per un elemento puntiforme rappresentante un pozzo, gli attributi possono ad esempio essere costituiti dalla profondità, l’anno di perforazione e il proprietario, per una stazione meteorologica la temperatura dell’aria o le precipitazioni, per una strada la larghezza, la categoria o il tipo di pavimentazione.

La rappresentazione dei dati

Nei GIS possono essere utilizzate due diverse tecniche di rappresentazione dei dati: vettoriale e raster. Nella rappresentazione vettoriale un punto è definito da una coppia di coordinate mentre una linea o un poligono dalle coordinate di un insieme di punti che quando connessi fra loro con segmenti retti, formano la rappresentazione grafica dell’oggetto (fig.1). Generalmente i due punti alle estremità di una linea vengono definiti nodi, i punti intermedi di una spezzata vengono definiti vertici.

fig_1_vettoriale

Fig.1 Rappresentazione vettoriale di punti, linee (archi) e aree (poligoni)

Un’immagine vettoriale è costituita da un insieme di caratteristiche geometriche e di attributi. La geometria è salvata in uno specifico formato vettoriale. Tutti gli attributi delle immagini vettoriali sono salvati in table all’interno di un database e collegati alle caratteristiche geometriche mediante una DBMI (Data Base Management Interface). Nella rappresentazione raster l’area considerata è suddivisa in un insieme di celle, generalmente di forma quadrata, in ciascuna delle quali viene registrato l’attributo (o categoria) presente. Ad ogni cella viene quindi attribuito un valore numerico (fig.2). Ad ogni oggetto di una carta raster può essere eventualmente attribuita, oltre al valore di categoria, un’etichetta descrittiva. I formati vettoriale e raster sono salvati in direttori diversi, e sono gestiti mediante comandi diversi, per cui è possibile assegnare lo stesso nome ad una carta vettoriale e ad una raster senza problemi di conflittualità.

fig_2_raster

Fig.2 Rappresentazione raster di punti, linee (archi) e aree (poligoni).

In un GIS le diverse categorie di oggetti presenti sulla superficie terrestre sono distinti in elaborati diversi, o carte. Ogni elaborato contiene quindi una diversa caratteristica o tematismo, come l’idrografia, l’altimetria, ecc. (fig.3). E’ tuttavia possibile l’inserimento di diversi tematismi in una stessa carta suddividendoli in layer distinti.

fig_3_layer

Fig.3 Rappresentazione del territorio mediante tematismi distinti, passibili di elaborazione tramite un GIS.

I dati in forma raster occupano generalmente più memoria dei dati in forma vettoriale in quanto ad ogni cella viene assegnato un attributo, anche se esistono tecniche di compattazione dei dati che limitano questo inconveniente. Il vantaggio è che lo spazio geografico risulta uniformemente definito in un modo semplice e prevedibile. In tal modo i sistemi raster hanno generalmente più potenza analitica dei sistemi vettoriali nell’analisi dello spazio continuo e sono pertanto adatti all’analisi di dati che presentano una continua variabilità nello spazio, come le temperature, le precipitazioni, l’altimetria ecc. Questi sistemi trovano quindi un’applicazione ottimale nella valutazione di problemi che includono numerose combinazioni matematiche di dati appartenenti a diversi tematismi. Sono quindi eccellenti nella valutazione di modelli ambientali. Infine, dal momento che le immagini da satellite impiegano una struttura raster, la maggior parte di questi sistemi può facilmente incorporare ed elaborare dati di questo tipo.

Componenti di un GIS

Per quanto all’utente un GIS può apparire come un unico programma di calcolo, in realtà esso è tipicamente suddiviso in un certo numero di componenti, o elementi, con funzioni diverse. Nella maggior parte dei GIS si possono comunemente individuare le seguenti componenti essenziali:

1) Un database spaziale e degli attributi

E’ costituito da un’insieme di carte e di informazioni associate, in forma digitale. Dal momento che nel database sono contenuti oggetti, o elementi, della superficie terrestre, è possibile distinguere un database spaziale che descrive la geografia (forma e posizione) degli oggetti, ed un database degli attributi, che descrive le caratteristiche, o qualità, degli stessi oggetti. Così, ad esempio, è possibile avere il perimetro di una porzione di superficie poligonale definito neldatabase spaziale mediante le coordinate dei vertici e alcune sue caratteristiche, come la litologia, il tipo di suolo, la pendenza media, contenute nel database degli attributi.

2) Un sistema di visualizzazione

Contiene quelle componenti che permettono la visualizzazione di elementi del database per produrre carte sia sullo schermo che su supporto cartaceo tramite una stampante o un plotter. Generalmente un GIS non produce rappresentazioni sofisticate, delegando ad altri sistemi specificamente dedicati la produzione di elaborati di alta qualità.

3) Un sistema di digitalizzazione

E’ costituito da un programma per convertire dati cartografici esistenti su supporto cartaceo in forma digitale e quindi passibili di elaborazione tramite il GIS. La digitalizzazione viene effettuata comunemente mediante una tavola grafica (o digitalizzatore) o direttamente da schermo su immagini acquisite tramite scanner.

4) Un sistema di analisi geografica

Caratteristica fondamentale di un GIS, che lo distingue dai tradizionali Sistemi di Gestione delle Basi di Dati (DBMS, Data Base Menagement System), è la capacità di confrontare differenti entità in base alla loro topologia. Si immagini ad esempio che di un determinato territorio siano disponibili due elaborati digitalizzati, rappresentanti il primo la distribuzione dei vari tipi vegetali, il secondo la distribuzione delle varie litologie. I due tematismi, vegetazione e litologia, non presentano ovviamente la stessa topologia; in altre parole gli appezzamenti con i diversi tipi di vegetazione hanno forma e distribuzione diversa dalle porzioni di territorio occupate dai diversi tipi litologici. Con un GIS è possibile individuare quelle aree in cui un particolare tipo vegetale risulta associato ad una particolare litologia. Questo tipo di operazione, molto usato nei GIS, è definito sovrapposizione (overlay), in quanto equivale all’operazione manuale di sovrapposizione di carte trasparenti contenenti tematismi diversi. E’ un’operazione non effettuabile con i comuni DBMS per la mancanza delle informazioni topologiche degli oggetti analizzati.

FONTE: Tutorial GRASS 6 (M.Ciolli, P.Zatelli) – Università degli Studi di Parma – Dipartimento di Scienze della Terra – 2005 (http://www.geo.unipr.it/~gis/TUTORIALS/GRASSESER.W/GRASS6.0.2.pdf) http://www.geo.unipr.it


Di GIANLUCA data: 30 settembre 2005

Schema per la costruzione della banca dati:

Aggiornato 23 maggio 2006

  • Costruire la banca dati (dati dinamici, le misure raccolte, le informazioni che si vogliono visualizzare) utilizzando MySql.
  • Costruire la base geografica separatamente (in shape file statitci o in un altro database che può essere Mysql con libreria OGR o meglio Postgres con estensioni Postgis)
  • Collegare queste due entità utilizzando Map Server un software open-source molto stabile e potente

Visualizzare e interrogare i dati geografici:

  • Costruire le banche dati (vedi sopra)
  • Collegarle fra di loro utilizzando Mapserver (scrivere i file .map)
  • Visualizzarle con uno dei seguenti strumenti:

Risorse:

  • Mapserver Il miglior visualizzatore GIS open source oggi presente
  • Maptools Società che lavora con i GIS e rilascia moltissimi strumenti con licenza open source. Ne sono un esempio ka-map e php mapscript.
  • WMS server Elenco di server WMS gratuitamente accessibili.
  • NASA – Earth project Un server WMS globale che mette a disposizione circa dieci differenti tipologie di immagini della Terra. Probabilmente è il datababse di imaggini gratuite con la più alta risoluzione. Il layer Global Mosaic Landsat 7 è quello con la corrispondenza dei colori più simile al visibile e la risoluzione migliore. Torino – layers=global_mosaic

Un futuro per i numeri civici

numeri_civici

Che senso avranno tra… facciamo cinque anni… i numeri civici?

Memoria storica, feticcio urbano, monito per i giovani, simbolo dei tempi che furono.

Si, perchè nell’epoca in cui tutto dev’essere razionalizzato ed efficiente sarebbe meglio usare le coordinate di geoposizionamento terrestre. NO?

Già lo sapete l’indirizzo di casa mia!

N 45 05.910

E 007 40.996

Meglio che via bla bla bla numero bla C.A.P. bla bla città bla bla stato bla bla bla.

…e che cavolo! Due lettere 15 numeri e via!

Per tutti gli individui, attività commerciali, uffici sapete che risparmio di tempo?

  • scrivi nome, cognome e coordinate;
  • spedisci la lettera;
  • le poste italiane raccolgono e attraverso un lettore ottico rilevano e smistano le lettere;
  • il postino con il suo gps “coordinato” con il mezzo di locomozione, recapita le missive in men che non si dica!

AUITO! vi supplico, tra dieci anni voglio ancora leggere su pezzi di bronzo annerito numeri, che appesi alla porta, saranno simbolo inequivocabile del io vivo qui!

Software libero

Il software libero: una opportunità di sviluppo economico e culturale

tux-mini-1

Spesso si discute sulla progressiva marginalizzazione che l’Europa, e l’Italia in modo particolare, sta subendo in campo economico: la globalizzazione, e la grande crescita di quel gigante demografico ed ora economico che è la Cina, stanno sempre più spostando l’asse economico del mondo verso il Pacifico ed il Sud Est asiatico. Altrettanto spesso si parla del rischio di un analogo impoverimento tecnologico dei nostri Paesi: è notizia di pochi giorni fà che negli Stati Uniti d’America crescono le proteste, favorite dal clima pre-elettorale, per l’outsourcing di migliaia di posti di lavoro in India, non per produrre scarpe, ma per sviluppare software e gestire i call center telefonici di importanti aziende statunitensi; a quanto pare è normale ormai per gli americani chiamare il servizio clienti per esempio di una azienda di servizi, e sentirsi rispondere da un giovane con accento indiano. Ora, a parte le probabili esagerazioni ed esasperazioni, è innegabile che la globalizzazione sia anche questo, favorita dall’evoluzione tecnologie delle telecomunicazioni e dallo loro convenienza economica; sui grandi volumi di traffico, una te lefonata tra gli Usa o l’Europa e il Terzo (?) Mondo costa quanto una telefonata nazionale. Ma come si può reagire? La ricetta sembra semplice: puntare sull’innovazione, di processo e di prodotto, e sull’educazione, sulle capacità dei nostri giovani di competere a livello globale. Ma tra il dire e il fare come al solito c’è di mezzo il mare: le risorse economiche da investire sono quelle che sono, specialmente al Mezzogiorno, e spesso le si impiega in modi che finiscono per sortire l’effetto opposto a quello che ci si era prefissi. Diventare competitivi significa spesso scegliere una strada diversa, che porti all’indipendenza e alla libertà e permetta di aggiungere veramente del valore a quello che si fà. Di tutto ciò sono nemici i monopoli, in special modo quelli, imposti da lontano, che impediscono il nascere e svilupparsi di competenze veramente innovative in sede locale. L’esempio che vogliamo trattare in questo articolo è il software; il software è, genericamente parlando, l’insieme dei programmi che fanno funzionare i computer, ma non solo: oggigiorno anche i telefonini, le apparecchiature e le infrastrutture elettroniche funzionano grazie al software. Il software è qualcosa di immateriale: in teoria chiunque, con le necessarie conoscenze e competenze, un computer e un bel pò di tempo a disposizione potrebbe “scrivere” tutto il software necessario per far funzionare un computer. Diverso è il discorso con l’hardware, cioè la parte “materiale” dei computer: per produrlo, oltre alle conoscenze, sono necessarie le fabbriche, i macchinari, le materie prime. L’unica materia prima del software è l’intelligenza umana. E questo è proprio quanto è successo negli anni scorsi e sempre più sta succedendo in questi anni: giovani svegli, appassionati e capaci, distribuiti in tutto il mondo e in comunicazione tra loro grazie ad Internet, hanno scritto e continuano a scrivere ottimo software che, in teoria, ma soprattutto in pratica, può sostituire il software prodotto dalle grandi aziende. Come è possibile tutto ciò? E’ possibile perché quello che viene scritto è software libero. Che cosa è il software libero? Partiamo dalla definizione (www.gnu.org/philosophy/free-sw.html) data da Richard Stallman (www.stallman.org), colui che negli anni settanta, per non essere costretto dal proprio datore di lavoro a negare agli amici e colleghi la libertà di conoscere, usare e condividere il software da lui scritto, si è licenziato e ha fondato il progetto GNU (www.gnu.org/home.it.html) e la Free Software Foundation (www.fsf.org): l’espressione “software libero” si riferisce alla libertà dell’utente di eseguire, copiare, distribuire, studiare, cambiare e migliorare il software. Più precisamente, si riferisce alle seguenti 4 libertà: – libertà di eseguire il programma, per qualsiasi scopo (libertà 0) – libertà di studiare come funziona il programma e adattarlo alle proprie necessità (libertà 1). L’accesso al codice sorgente ne è un prerequisito. – libertà di ridistribuire copie in modo da aiutare il prossimo (libertà 2) – libertà di migliorare il programma e distribuirne pubblicamente i miglioramenti, in modo tale che tutta la comunità ne tragga beneficio (libertà 3). L’accesso al codice sorgente ne è un prerequisito. Il codice sorgente è la forma del software leggibile dagli esseri umani; questo viene “compilato”, cioè trasformato in una forma leggibile ed eseguibile dai computer: questa è la forma nelle quali viene distribuito il software non libero, che quindi non può essere studiato e migliorato. L’approccio del software libero è possibile perché il software è immateriale e può essere duplicato senza praticamente costi; è un approccio semplice ma rivoluzionario, ed ha dato luogo a tutto il software libero che possiamo usare oggi: GNU/Linux (www.tldp.org), il sistema operativo con il maggiore tasso di crescita di diffusione, l’unico che sta riuscendo a rompere il monopolio di Microsoft, Apache (www.apache.org), il web server di gran lunga più utilizzato su Internet, OpenOffice (www.openoffice.org), la suite di software di produttività individuale capace di sostituire Microsoft Office, Gimp (www.gimp.org), il programma di manipolazione di immagini e fotoritocco che non ha niente da invidiare ai software commerciali più costosi, e migliaia di altri programmi (www.freshmeat.net, http://www.sourceforge.net). Ma il software libero può migliorare la competitività di un Paese, o quanto meno delle Regioni meno favorite dal punto di vista della potenza economica e delle opportunità commerciali? Cosa offre il software libero in questo senso? Innanzitutto (libertà 0) permette di avere accesso a tutto il software che potrebbe servire per avviare o supportare un’attività commerciale, un ente di ricerca, una scuola, un’organizzazione no-profit, un ente locale o un ente culturale. E l’accesso sarebbe a costo zero, per quanto riguarda il costo del software, mentre l’investimento richiesto riguarderebbe il supporto per tale software. Che cosa vuol dire? che non è richiesto pagare licenze all’azienda produttrice del software, perché questo è libero, e quindi (libertà 2) è liberamente ridistribuibile, ma che chiaramente ci vuole qualcuno con le competenze necessarie per farlo funzionare. Questo è vero anche per il software non libero, specialmente in Italia, dove le aziende produttrici di software sono pochissime, e tantissime quelle che supportano software non libero sviluppato all’estero. Nel caso del software libero, però, chiunque può diventarne esperto (libertà 1) senza dover pagare royalties al produttore, e quindi entrare nel mercato della consulenza mettendo sul piatto della bilancia le proprie capacità, con le quali i concorrenti dovranno confrontarsi: diventa difficile vivere di rendite di posizione in quanto tutti partono dallo stesso livello. Se poi vi sono la necessità e la competenza, lo stesso software può essere migliorato (libertà 3) senza dover pagare royalties. Quello che è richiesto nella maggior parte di licenze free-software (per esempio la più diffusa gpl General Publica License – http://www.softwarelibero.it/gnudoc/gpl.it.txt) è di mettere a disposizione i miglioramenti apportati a chiunque lo desideri, offrendo agli altri le stesse libertà di cui si è usufruito. Per le aziende che hanno bisogno di software per funzionare, il vantaggio è che dovranno pagare solo per il supporto, e non per le licenze al produttore, e soprattutto che potranno rivolgersi alla ditta di supporto che preferiscono, senza essere svincolati ai “capricci” del produttore, che (è successo innumerevoli volte) per i più svariati motivi può cambiare politica, e cessare il supporto o ritirare il prodotto dal mercato. I vantaggi del sofware libero, in termini di sviluppo economico e sociale, sono quindi molteplici: immaginiamo che cosa il software libero può voler dire per dei professionisti, che, con un grosso capitale di conoscenze e competenze, ma con un ridotto capitale economico, vogliano entrare nel mercato della consulenza; immaginiamo inoltre che cosa il software libero può significare per la Scuola, da cui quei futuri professionisti devono essere formati: i professori possono, scegliendo il software libero quale ausilio al proprio insegnamento, mostrare ai ragazzi tutto, ma proprio tutto, quanto vi è nel software e nell’informatica: se è vero, come è vero, che la Scuola deve formare competenze e capacità generali e non semplicemente come funziona un particolare prodotto di uno specifico fornitore/monopolista, che cosa c’è di meglio del software libero? (www.softwarelibero.it) I ragazzi potranno scegliere il software migliore, senza vincoli economici, studiarlo fin nei più piccoli dettagli grazie alla disponibilità del codice sorgente, migliorarlo se ne hanno le capacità e la necessità, collaborando magari con altre scuole. Non è più un apprendimento di “dogmi” ricevuti dall’alto, dal fornitore/monopolista di turno, ma un capire che cosa si ha sotto mano e costruire cose nuove, alzandosi “sulle spalle dei giganti”: secondo la migliore tradizione scientifica, si costruisce vera conoscenza capendo quanto ci è stato passato da chi ci ha preceduto, e ha passato il vaglio critico degli esperti del settore, e migliorandolo senza dover inventare tutto da capo; la riusabilità del software libero, garantita dalla libertà 3, permette di fare ciò. Lo stesso per le Pubbliche Amministrazioni, che non useranno i soldi dei contribuenti per pagare licenze a produttori di oltre oceano, ma li spenderanno per ottenere il supporto dei fornitori locali, attivando un circolo virtuoso di investimenti e valorizzazione delle risorse economiche e culturali locali. Non ultimo, un altro vantaggio del sofware libero è la sicurezza intrinseca che software stesso: il fatto che esso sia da chiunque leggibile e verificabile comporta che le falle di sicurezza possano essere corrette velocemente, e soprattutto che si possa verificare che, nascosti nei programmi, non vi siano funzionalità che “spiano” il lavoro degli utenti e comunichino segreti a terzi malintenzionati, o alterino i risultati delle elaborazioni. Pensiamo a quanto ciò possa essere importante se si vuole usare il software per il cosiddetto “voto elettronico”. Per concludere, il software libero è una grande opportunità, che è lì disponibile per essere sfuttata: sta a noi, intesi come entità economiche, culturali o amministrative, conoscerlo ed utilizzarlo al meglio.

Roberto Giungato articolo comparso su

Anxa News

del Luglio 2004, Notiziario della Associazione culturale Anxa di Gallipoli (Le).

Lezione nuove tecnologie e territorio

Comunità locali e nuove tecnologie: progettare e sostenere l’interazione sul territorio

lezione_territorio

La lezione è stata tenuta il 19 luglio 2004 a Cuneo nel corso del Progetto Interreg III A – ALCOTRA “rete turistica dei patrimoni culturali transfrontalieri” corso di formazione professionale in “progettazione e gestione della rete turistica dei patrimoni culturali transfrontalieri”.


Apri Mappa interattiva della lezione

La mappa contiene dei collegamenti costituiti da siti internet inerenti l’argomento al quale sono stati abbinati. Vi suggerisco di esplorare la mappa nel dettaglio!


  • Per informaioni dettagliate guarda Mappe Concettuali
  • La mappa è stata creata con Cmap un software libero che puo essere scaricato gratuitamente dal sito http://cmap.ihmc.us

Alexander Tsiaras

Alexander_Tsiaras

da fonte ignota

Le visionarie anatomie di Alexander Tsiaras

Da venticinque anni, assistito dai ragazzi di bottega all’Anatomical Travelogue di New York, Alexander Tsiaras rappresenta il corpo umano usando le ultime ricerche in biologia e le ultime tecniche per ottenere immagini: ultrasuoni, risonanza magnetica nucleare, tomografia a emissione di positroni, l’intera panoplia dei sistemi diagnostici non invasivi. Crea anche gli algoritmi con i quali i suoi computer ruotano le immagini e ce le fanno vedere come se potessimo muoverci nello spazio che le circonda. I suoi strumenti sono matematici come quelli costruiti da Antonio Criminisi in questi giorni per restituirci i paesaggi di Marte a partire dai bit digitali inviati dalle sonde. Ma a Tsiaras non basta porgere uno specchio high-tech a un mondo che altrimenti ci rimarrebbe invisibile. Con sfondi, colori, disposizioni evoca un giudizio e un piacere estetico. La sua nuova lezione di anatomia ha alle spalle quella del dottor Nicolaes Tulp vista da Rembrandt e secoli di storia dell’arte.

http://www.anatomicaltravel.com

http://www.anatomicaltravel.com/Conception_to_birth3.htm


Fonte: sito riccomaresca, gallerista di Tsiaras

Alexander Tsiaras, an artist for over 25 years, has focused in the last decade on creating works which utilize a combination of images from cutting edge technologies and real human data. He has developed much of this software himself, and the derived scans have been the source of inspiration for many of his works.

The art transcends the unseen technology and allows us to experience the awe and beauty of our own physical existence and fragility.

This remarkable body of work is Tsiaras’transformation of imagery derived from his latest book “From Conception to Birth: A Life Unfolds” (Doubleday, 2002), which visualizes human development from single cell to newborn from within the mother and the embryo.

These pictures literally show life within life: mother and child, before, during and after the moment of BIRTH, beautiful not only for their subject matter but also in the way they have been visualized by the artist.

http://www.riccomaresca.com/Artists/Contemporary/Tsiaras/AlexanderTsiaras.htm

Biomimetica una nuova via verso la sostenibilità

di Elena Candelari

Da sempre l’uomo ha cercato di imitare la natura osservandone i meccanismi e tentando di riprodurli in tecnologie più o meno complesse. Ci provava Leonardo, quando disegnava la sua macchina per volare: i disegni di questo progetto arrivano dopo innumerevoli illustrazioni sugli uccelli, schizzi sulla conformazione delle ossa che compongono le loro ali e studi accuratissimi
sull’aria e sui venti. Il grande Leonardo aveva intuito che anche volare sarebbe stato possibile per l’Uomo se fosse riuscito a riprodurre il movimento e l’equilibrio di coloro che in natura già volavano.
Del resto “l’uomo comanda la natura obbedendole”, come avrebbe detto un secolo dopo il filosofo Francis Bacon.
Oggi, questo processo consapevole ha assunto il nome di biomimetica. Col termine biomimetica, biomimicry in inglese, si intende lo studio della natura, dei suoi modelli, sistemi, processi ed elementi, al fine di emularli o trarne ispirazione per la tecnologia. Una sorta di trasferimento di “soluzioni” sostenibili dalla biologia alla tecnologia.
Qualche principio base della biologia da cui l’Uomo ha tutto da imparare? La natura funziona secondo cicli chiusi: non esistono “rifiuti”; la natura utilizza solo l’energia di cui ha bisogno; tutti i sistemi viventi si fondano su interdipendenza, interconnessione e cooperazione; i sistemi naturali funzionano a energia solare (basti pensare, ad esempio, alla fotosintesi); la natura rispetta e
moltiplica la diversità; essa adatta la forma alla funzione; e così si potrebbe andare avanti…

Ma ancora più interessante è analizzare sistemi particolari. Pensiamo all’uovo: ha una perfetta tenuta, utilizzazione ottimale dello spazio, buon isolamento chimico e fisico, resistenza sotto uniforme pressione idrostatica. Un sistema che trova le sue applicazioni nel campo dell’aeronautica.
Oppure le foglie di loto: la loro superficie idrofobica, rivestita di cristalli di cera, fa sì che le goccioline d’acqua che vi cadono sopra si raccolgono per l’alta tensione superficiale della foglia; di conseguenza, anche una leggera pendenza della foglia dovuta al peso dell’acqua, la fa scivolare via. Il rotolamento delle goccioline su piccole particelle di sporco ne favorisce l’asportazione, le foglie del loto sono dunque autopulenti.

foglia_di_loto

Così la biomimetica può ispirare forme, strutture e l’invenzione di nuovi materiali sintetici.
Uno degli esempi solitamente citati a proposito di biomimetica è l’invenzione del velcro, nata dall’osservazione di come i fiori di bardana si attaccavano alla giacca di Georges de Mestral (l’inventore del velcro), di ritorno da una passeggiata: analizzandoli al microscopio, notò che questi fiori sul calice avevano degli uncini che gli permettevano di “incastrarsi” ovunque, anche nelle anse formate dai fili del tessuto della giacca. Il velcro riproduce questo sistema.

fiore_di_bardana_velcro

Anche in architettura la biomimetica comincia ad essere applicata: serre solari ispirate alla pelle dell’orso polare, coperture strutturali ispirate alla foglia di ninfea, padiglioni che ricalcano la resistenza del guscio delle conchiglie, eccetera.
La biomimetica non è una scienza, ma un metodo, che la scienza può (e forse deve) utilizzare per un costruire sostenibile.

Per approfondire:

http://www.biomimicry.net/

http://www.biomimicryinstitute.org/

http://biomimit.blogspot.com/