venerdì 2 dicembre 2016

Libertà di stampa, data jurnalism e metodo scientifico

Bufale, disinformazione, pressapochismo sono spesso i connotati di articoli o post che si leggono e condividono in internet.
D'altra parte la libertà di stampa è nata in Svezia il 2 dicembre 1766 e compie 250 anni! Infatti proprio a Stoccolma venne adottata la prima legge per la tutela della libertà di stampa.
Per inciso va ricordato che nello stesso anno, in Italia, la Congregazione della Sacra Romana e Universale Inquisizione inseriva il libro "Dei delitti e delle pene" dell’illuminista Cesare Beccaria nell’indice dei libri proibiti.





La prima legge sulla libertà di stampa promulgata dalla Svezia il 2 dicembre 1766

Spesso, proprio in contrapposizione al pressapochismo, si parla del metodo di informazione giornalistica detto "data jurnalism", ovvero la trasformazione dei grandi numeri in racconto, per rendere più facile la comprensione e l’impatto.
Metodo che deve dir grazie proprio a quella legge che ha poi permesso anche una libera consultazioni dei dati.
Ma cosa si intende per data jurnalism?
In internet troviamo questa definizione:
"Per data journalism o giornalismo di precisione (in inglese: computer-assisted reporting, data driven journalism o database journalism, abbreviato in data journalism) s'intendono quelle inchieste o quei lavori di approfondimento realizzati con gli strumenti della matematica, della statistica e delle scienze sociali e comportamentali, che sono applicate alla pratica del giornalismo.
Inoltre si attribuisce il termine "data journalism" sia ai tipi di inchieste giornalistiche che sono portate avanti con il rigore del metodo scientifico, sia a quelle che semplicemente richiedono un computer per accedere a grandi quantità di dati e il suo potere di calcolo per confrontare quelli d'interesse."
Il "data jurnalism", il giornalismo di precisione, è quindi un metodo che più si avvicina a una vera ricerca scientifica. 

Il giornalista, il cronista o lo scrittore applicano il massimo rigore scientifico nello scrivere un articolo per descrivere un fatto. Un metodo di analisi rigorosa dei dati che dovrebbe conferire quindi più precisione e obiettività alla notizia.
Tra gli strumenti del giornalismo di precisione c'è l'uso dei fogli di calcolo per analizzare le informazioni, la ricostruzione di un fatto attraverso i documenti, la realizzazione dei sondaggi e anche la costruzione di mappe per mostrare risultati ottenuti. 
Questo tipo di giornalismo beneficia soprattutto di Internet, da un lato per potenziare l’interattività con il lettore grazie agli strumenti multimediali, e dall'altro per attingere alle banche dati, grazie al fenomeno dell'"open data".
L'open data è infatti una fonte molto importante perché permette di reperire dati liberamente accessibili a tutti, fermo restando se mai l'obbligo di citarne la fonte.

E vediamo cosa s'intende per open data! 
L'open data si richiama alla più ampia disciplina dell'open government, cioè della dottrina in base alla quale la Pubblica Amministrazione (PA) dovrebbe essere aperta ai cittadini, tanto in termini di trasparenza quanto di partecipazione diretta al processo decisionale, grazie proprio alle nuove tecnologie dell'informazione e della comunicazione.
L'open data, avendo alla base un'etica simile ad altri organi e comunità di sviluppo "open", come l'open source, l'open access e l'open content, risulta quindi una fondamentale risorsa per il data jurnalism.  
Il data jurnalism fa quindi di frequente riferimento a informazioni rappresentate in forma di database e riferite alla tematiche più disparate, ad esempio: cartografia, genetica, composti chimici, formule matematiche e scientifiche, dati medici e delle bioscienze, dati anagrafici, dati governativi, ecc. 
Certo si possono incontrare alcune difficoltà oggettive che impediscono una larga diffusione di questi dati, quali restrizioni dovute alla privacy, al segreto statistico, a dati protetti o segreti aziendali.

Secondo i sostenitori del movimento open data, i dati andrebbero trattati come beni comuni e a sostegno di questa tesi ecco di seguito alcune argomentazioni:

- I dati appartengono al genere umano. Esempi tipici sono i genomi, i dati sugli organismi per la scienza medica, dati ambientali e meteorologici, ecc.
- I dati prodotti dalla Pubblica Amministrazione, in quanto finanziati da denaro pubblico, devono ritornare ai contribuenti, e alla comunità in generale, sotto forma di dati aperti e universalmente disponibili
- Restrizioni sui dati e sul loro riutilizzo limitano lo sviluppo della comunità
- I dati sono necessari per agevolare l'esecuzione di comuni attività umane (ad esempio i dati cartografici, le istituzioni pubbliche, ecc.)
- In campo scientifico il tasso di scoperta è accelerato da un migliore accesso ai dati.
- È essenziale che i dati scientifici siano resi aperti per fare in modo che la scienza sia più efficace e la società ottenga il massimo beneficio dalle ricerche scientifiche.

E a proposito di ostacoli all'apertura dei dati si ricorda un'emblematica dichiarazione di John Wilbanks, direttore esecutivo dello Science Commons:

"Numerosi scienziati hanno sottolineato con ironia che proprio nel momento storico in cui disponiamo delle tecnologie per consentire la disponibilità dei dati scientifici a livello globale e dei sistemi di distribuzione che ci consentirebbero di ampliare la collaborazione e accelerare il ritmo e la profondità della scoperte... siamo occupati a bloccare i dati e a prevenire l'uso di tecnologie avanzate che avrebbero un forte impatto sulla diffusione della conoscenza."

Il progetto Open Definition di Open Knowledge Foundation utilizza la seguente frase per definire gli open data (dati e contenuti aperti):

"Un contenuto o un dato si definisce aperto se chiunque è in grado di utilizzarlo, ri-utilizzarlo e ridistribuirlo, soggetto, al massimo, alla richiesta di attribuzione e condivisione allo stesso modo"

E' questa una definizione molto sintetica che viene meglio spiegata attraverso il documento, "Conoscenza Aperta", in 11 punti che mette chiarezza sulle modalità di distribuzione e di accesso a tali informazioni i cui contenuti sono molto simili a quelli della OSI definition (Open Source Initiative).

Negli Stati Uniti una grossa spinta all'affermarsi del movimento open data in ambito governativo è stata data dall'uscente Presidente degli Stati Uniti d'America Barack Obama con la promulgazione della Direttiva sull'open government nel dicembre 2009, nella quale si legge testualmente:

"Fin dove possibile e sottostando alle sole restrizioni valide, le agenzie devono pubblicare le informazioni on line utilizzando un formato aperto (open) che possa cioè essere recuperato, soggetto ad azioni di download, indicizzato e ricercato attraverso le applicazioni di ricerca web più comunemente utilizzate. Per formato open si intende un formato indipendente rispetto alla piattaforma, leggibile dall'elaboratore e reso disponibile al pubblico senza che sia impedito il riuso dell'informazione veicolata"

Alla direttiva sopra citata è stato dato un seguito "tangibile" attraverso il sito pubblico Data.gov , lanciato nel maggio 2009 dal "Chief Information Officer" (CIOdell'amministrazione pubblica statunitense Vivek Kundra. 
Il sito è stato creato con l'obiettivo principale di raccogliere in un unico portale tutte le informazioni rese disponibili dagli enti statunitensi in formato aperto.


Libertà di stampa nel mondo

E la situazione in Italia qual'è?
La Legge n. 221, del 17 dicembre 2012, ha formalizzato una definizione di open data (formalmente "dati di tipo aperto") inserendola all'interno dell'art. 68 del Codice dell'Amministrazione Digitale.
Secondo tale definizione, sono dati di tipo aperto, i dati che presentano le seguenti tre caratteristiche:
- sono disponibili secondo i termini di una licenza che ne permetta l'utilizzo da parte di chiunque, anche per finalità commerciali, in formato disaggregato
- sono accessibili attraverso le tecnologie dell'informazione e della comunicazione, ivi comprese le reti telematiche pubbliche e private, in formati aperti, sono adatti all'utilizzo automatico da parte di programmi per elaboratori e sono provvisti dei relativi metadati
- sono resi disponibili gratuitamente attraverso le tecnologie dell'informazione e della comunicazione, ivi comprese le reti telematiche pubbliche e private, oppure sono resi disponibili ai costi marginali sostenuti per la loro riproduzione e divulgazione.

Tale definizione, in coordinamento con quanto disposto dall'articolo 52 dello stesso codice, rappresenta la base per il cosiddetto principio open by default ora presente nell'ordinamento italiano.
La realizzazione di un portale italiano dell'Open data sul modello dei datagov anglosassoni, il portale dati.gov.it, è stato messo on line il 18 ottobre 2011.
Open Knowledge Foundation Italia e il Centro NEXA su Internet & Società del Politecnico di Torino hanno offerto il repository it.ckan.net dove chiunque poteva segnalare i dataset italiani disponibili online, assorbito da unico portale internazionale datahub.io/ 
Un servizio analogo era gestito dalla comunità del sito Spaghetti Open Data , ma il servizio è stato sostituito dal sito nazionale dati.gov.it , nel quale sono confluiti i dataset presenti. 
Da settembre 2012 è disponibile anche datiopen.it, e altre iniziativa indipendenti che offono a tutti servizi gratuiti di segnalazione, caricamento e visualizzazione come opendatahub.it , opengeodata.it .......
Inoltre molto importante è stata l'approvazione nel maggio di quest'anno (2016) della legge Foia, Freedom of information act, che dà la possibilità a qualunque cittadino, giornalisti inclusi, di richiedere e ottenere dalla pubblica amministrazione dati, informazioni e documenti.

Un approccio scientifico quindi decisamente interessante che però può avere anche un risvolto negativo.
Non va dimenticato infatti che più dati informativi non portano necessariamente e sempre a un'informazione completamente obbiettiva, anche perché i dati possono essere saggiamente manipolati o adattati alle ipotesi di partenza o alle tesi che si vogliono sostenere.
Lawrence Lessig in "Cultura libera - Un equilibrio fra anarchia e controllo, contro l'estremismo della proprietà intellettuale" (Free Culture: How Big Media Uses Technology 
and the Law to Lock Down Culture and Control Creativity) chiamava in causa la "trasparenza patologica della tecnologia".
Lawrence Lessig è un giurista statunitense. Direttore della Edmond J. Safra Foundation Center for Ethics dell'Università di Harvard, dove insegna anche diritto, fondatore dello Stanford Center for Internet and Society (Centro per Internet e la società), fondatore e amministratore delegato di Creative Commons, nonché membro del consiglio direttivo della Electronic Frontier Foundation e di quello del Software Freedom Law Center, costituito nel febbraio 2005, accanito sostenitore della libera consultazione dei dati ha anche però ammonito sulla possibile manipolazione degli stessi forse ricordando un vecchio detto in voga tra gli statistici: "tortura i dati abbastanza a lungo e ti diranno quello che vuoi".


Fonti
Tra le fonti alcuni articoli e le informazioni di Wikipedia