Archivi tag: internet

Come cambia ora WikiLeaks?

Mi è stato chiesto come cambierà WikiLeaks dopo l’arresto di Julian Assange. Non avendo io la “palla di vetro” posso solo fare qualche ipotesi, basandomi ne più ne meno su quello che vedo, leggo, sento.

Cominciamo dal punto di vista di WikiLeaks: l”arresto di Assange non rappresenta per l’organizzazione di WikiLeaks un grosso problema. Non solo perché a differenza di quello che i media lasciano trapelare, WikiLeaks non è composta dal solo hacker australiano, ma soprattutto perché ritengo che un suo arresto potesse essere prevedibile tanto quanto il rifiuto della scarcerazione su cauzione e (non è ancora giunto il momento ma credo che non mancherà molto), l’estradizione (vedremo se verso la Svezia o direttamente negli USA). Sicuramente Assange ha negli ultimi giorni dato adeguate istruzioni al board di WikiLeaks sia riguardo l’elezione di un suo successore sia riguardo la politica da seguire per difendere lui e l’organizzazione stessa.
Negli ultimi giorni infatti molti sono stati gli esempi di aziende e/o organizzazioni che hanno deciso di schierarsi apertamente contro WikiLeaks (quindi contro l’idea di un’informazione libera e della possibilità di una democrazia più diretta basandola sulla trasparenza forzata di governi, aziende e società varie): PayPal, Visa, MasterCard sono solo alcuni dei grandi nomi che nelle ultime ore hanno apertamente deciso per questa strada (ed io sto ponderando le mie decisioni in proposito).
WikiLeaks continua naturalmente ad essere apertamente supportato dalla stragrande maggioranza della comunità hacker mondiale (che sulla trasparenza e la libera circolazione delle informazioni ha basato la propria filosofia esistenziale) e che che ne dica Libero, non credo proprio che ad esultare per l’arresto di Assange sia “mezzo mondo”, forse non arriviamo nemmeno alla metà dei quattro scannagatti che leggono la testata (tralasciando poi il ministro Frattini che parla di “processo”, visto che il nostro primo ministro è il primo a non farsi processare da ormai alcuni lustri).

Dal punto di vista della diplomazia internazionale invece, si tratta di una “vittoria di Pirro”: in primis perché l’arresto di Assange non è legato alla divulgazione del materiale diplomatico, ma sul palliativo di una accusa di stupro e violenza carnale in Svezia, che ricorda fin troppo da vicino il trucchetto dell’evasione fiscale utilizzato per arrestare Al Capone. Secondariamente perché questo non fermerà WikiLeaks, che già stanotte rilascerà un’altra quota parte del materiale in via di vaglio. In terza battuta, perché un’altra volta si è persa l’occasione (a livello internazionale ma non solo) di comprendere ed analizzare le reali ripercussioni che un mezzo di informazione orizzontale e libero, come internet è, ha sul mondo reale; un’altra volta si è cercato di mettere un bavaglio, di cassare, di censurare. Questa strategia si è già dimostrata ampiamente fallimentare: pensiamo alla questione del diritto d’autore, della Cina che censura i siti web dei dissidenti (e non).

Alla fine di tutto il ragionamento, credo che si possa dire che l’arresto di Assange costituirà, per qualche giorno, il bianconiglio estratto dal cilindro e fatto correre di fronte alla stampa internazionale, per sviarne l’attenzione. Non cambierà nulla della sostanza e le prossime rivelazioni (di WikiLeaks o chissà di chi altri, nella marea di informazioni che internet è in grado di generare) riporteranno il tema alla ribalta.
Chissà che la prossima non sarà la volta buona di farci su un pensiero un po’ più profondo di “vendetta e sangue”…

WikiLeaks, Assange e la libertà d’informazione

Julian Assange

Julian Assange (biatch0r via Flickr)

In questi ultimi giorni, il nome “WikiLeaks” è sulla bocca di tutti, anche tra le parole di qualcuno che, senza alcuna cognizione di causa, pretende di dare pareri definitivi a riguardo. E non mi riferisco solo a politici, sia chiaro.
Non vorrei dilungarmi troppo neppure su cosa sia WikiLeaks e sulle rivelazioni che ha pubblicato negli ultimi giorni.

Quello su cui invece mi piacerebbe spendere qualche parola è ciò che WikiLeaks rappresenta, ossia l’emblema (attuale) della libera circolazione dell’informazione, potenziata enormemente dal mezzo che internet è.
Vorrei sottolineare come ciò che oggi si cerca di fare con WikiLeaks (ovvero, sostanzialmente, impedire la diffusione di conoscenze non gradite al potente di turno) si è cercato di fare, ed a volte “riuscito”, a rotazione con molti dei “fenomeni” che il web ha proposto: YouTube, Facebook, Wikipedia e via discorrendo. Noi italiani poi abbiamo particolarmente a cuore questo genere di pratiche, visto che a tutt’oggi impediamo l’accesso ai nostri concittadini a tutti quei siti di scommesse che non pagano il pizzo all’AAMS (esattamente come se vi impedissero di andare a Montecarlo perché li c’è un Casinò).

Nella fattispecie, quest’oggi abbiamo assistito al blando ed inefficace tentativo di bloccare l’accesso al sito di WikiLeaks dirottandone e filtrandone le entry DNS. Il sito ha rapidamente consentito un accesso da altri IP, con altri URL e i nostri amici di EveryDNS, che hanno così raccolto, come unico risultato, una ben magra figura. Si era precedentemente tentato (“non si sa” per mano di chi) un DDoS (Distributed Denial of Service), domani si tenterà con l’arresto di Assange grazie al primo mandato internazionale della storia spiccato a seguito di un’accusa di violenza carnale (non voglio difendere Assange, sia ben chiaro da buon principio). Senza per altro considerare il fatto che Julian Assange (che non è certo uno sprovveduto) avrà organizzato tutta una serie di ritorsioni che scatteranno proprio nel momento in cui egli venga messo sotto fermo.

Davvero pensano che, anche cadesse WikiLeaks, riuscirebbero a fermare la diffusione del sapere su Internet? Per questi potenti, abituati a giocare sottobanco le proprie carte, WikiLeaks ed internet sono una sorta di Vaso di Pandora. Per noi internauti, ormai, un qualcosa di irrinunciabile.

Prima i governi del mondo capiranno che internet significa “libertà di scambio” nella sua accezione più pura, prima questo smetterà di essere una minaccia per la società e diventerà invece una fonte di progresso e conoscenza.

VP8: Apple contro tutti

Google I/O

Pat Hawks via Flickr

Sembrerà male, sarà poco elegante, ma lasciatemelo dire: “l’avevo detto”. Qualche tempo fa’, all’epoca dell’acquisizione di On2 da parte di Google ed in piena battaglia sulla questione dei codec (con Mozilla che all’ora si schierava apertamente a favore di Theora e contro H.264), si discuteva dei possibili sviluppi allo scenario dell’informatica (e di Internet in particolare) che questo passo avrebbe portato. Il maggior valore di On2 infatti (quello che Google voleva verosimilmente acquistare), sta decisamente nel codec VP7 (del quale viene oggi annunciato il successore, VP8 per l’appunto) ed era facilmente prevedibile che Google preparasse una mossa “ad effetto” rilasciando questo codec sotto una licenza libera (nella fattispecie si tratta della licenza BSD) e senza “royalties”, andando così a dichiarare guerra aperta ad Apple (su tutti) ed al codec H.264 all’interno delle specifiche video di HTML5.

Cos’è un codec?

Ok, mi rendo conto, troppe sigle. Urge una spiegazione per chi non mastica pane e bit da mattina a sera. La rappresentazione di immagini su uno schermo (sia questo quello della televisione o quello di un pc, o di un telefonino poco importa), necessita senza eccezione alcuna della definizione di una “rappresentazione informatica” dei dati che si vogliono far apparire. Questa rappresentazione (che può assumere molte, moltissime forme), viene definita “codec“. Per chiarire il concetto di “codec”, facciamo un esempio pratico: ci troviamo nella condizione di voler visualizzare sullo schermo di un pc un’immagine completamente bianca (il caso più semplice); il meccanismo più semplice per rappresentare digitalmente questa immagine è quello di descrivere pixel per pixel i colori che la compongono; assegneremo quindi una scala di colori (dal bianco al nero, passando per tutti i vari colori), partendo da 0 (bianco) ed arrivando, ad esempio, a 255 (nero); dopodiché inseriremo in un file le codifiche di ogni singolo pixel che compone la nostra immagine, uno di fianco all’altro; nel momento in cui (dotandoci di un apposito programma che sia capace di “decodificare” il nostro codec), andremo a visualizzare l’immagine, sarà sufficiente leggere i codici colori e “colorare” i pixel dello schermo sulla base dei colori indicati.
Naturalmente un codec così semplice ha delle limitazioni notevoli

  • prima di tutto non è in grado di mostrare immagini in movimento (potremmo però comporre più rappresentazioni in successione, creando il movimento)
  • secondariamente è molto poco efficace: un’immagine 1920×1080 pixel (il formato del “Full HD” ci costringerà a definire 2.073.600 pixel, anche se fossero tutti bianchi. Un’idea potrebbe essere quella di indicare le sequenze di pixel colorati allo stesso modo in versioni “ridotte”, o assegnare “codici” a sequenze definite e ripetitive di pixel…
  • c’è poi la questione del codice colore: 256 colori sono decisamente pochi per rappresentare con un’immagine di buona qualità. L’aumento del numero dei colori possibili però (e quindi della dimensione della rappresentazione del singolo pixel), fa crescere proporzionalmente la dimensione dell’immagine finale: se posso rappresentare 256 colori con 32bit (e quindi la nostra immagine di cui sopra da 2.073.600 pixel “peserà” 8.2 megabytes), rappresentarne solo 512 (il doppio) necessiterà di 64bit (e quindi arriveremo a 16.4Mb). Una “profondità di colore” che consenta immagini realistiche si aggira intorno ai 16.7 milioni di colori, portando la nostra immagine a dimensioni spropositate (svariate migliaia di gigabytes).

Ecco quindi il perché del fiorire di codec differenti: ottimizzazione delle prestazioni a parità di dimensione della rappresentazione digitale (con algoritmi di codifica più o meno complessi), velocità di codifica e decodifica e via dicendo. Anche la semplicità dell’algoritmo del codec stesso è un fattore molto importante: un algoritmo molto  complesso è difficilmente implementabile “in hardware” (dedicandogli quindi un chip che faccia il lavoro di decodifica), con ripercussioni notevoli sul consumo di batteria (un chip dedicato consuma meno del processore che esegue il software di decodifica) e sulla velocità di decodifica.

Di fronte a tutti questi codec, ci sono come al solito due vie per “standardizzare” l’uso di un codec piuttosto che l’altro: la via “de jure”, che prevede l’inserimento di un ben specifico codec all’interno di un formato, oppure la via “de facto” in cui è l’adozione massiccia (solitamente per via di caratteristiche tecnica inconfutabili) a dettare la standardizzazione del formato. Nel mondo reale, una “specifica” consente spesso di adottare codec diversi all’interno del “contenitore”: la sezione video delle specifiche HTML5 (la nuova versione delle specifiche HTML che consentono di creare pagine web “arricchite” senza bisogno di ricorrere ad “aiuti esterni” come Flash o player dedicati) è definito che si possano usare codec differenti sia per quanto riguarda il canale audio che quello video, il che ha portato fino ad oggi all’adozione di H.264 (codec video) e AAC (codec audio). Purtroppo il formato H.264 è proprietario e (soprattutto) gravato dalla necessità di pagare una “tassa” (royalty) al proprietario del codec stesso, cosa non possibile nel caso di software libero (sviluppato cioè, semplificando, sotto la spinta di una comunità di sviluppatori e non di un’azienda che possa farsi carico del pagamento della royalty stessa).

Dicevamo…

Tornando alla discussione iniziale, la scelta di Google di rendere il successore del codec VP7 (acquisito attraverso l’acquisto On2), detto VP8, libero ed esente da royalty, oltre che prevedibile, apre un nuovo scenario, consentendo l’implementazione delle specifiche HTML5 attraverso codec liberi e royalty-free (affidando la parte audio all’ottimo codec Theora). Purtroppo VP8 è al momento ancora un codec incompleto (e le specifiche sembrano essere ancora poco precise) ed apparentemente coperto da una serie di “software patents” (i brevetti software che in Europa si cerca di scongiurare da svariati anni ma che sono da anni legge negli Stati Uniti) che renderebbero Google un soggetto facilmente attaccabile sul fronte giudiziario. Visto che però a Mountain View non sono degli sprovveduto, ritengo che abbiano in mente tempi e modi per risolvere queste problematiche.

Il motivo per cui questa scelta da parte di Google porta tanto scalpore, è da ricercarsi nella particolare congiuntura in cui il mondo del web si trova oggi:

  • il ruolo sempre più importante del video nel web (ed il particolar modo il fenomeno YouTube, acquisito da Google qualche anno fa) e la scarsa adattabilità di Flash nel ruolo di player più usato (per via sia della parte software, proprietaria e ormai vecchiotta, sia del codec scelto), portano particolare attenzione sulle nuove specifiche HTML5 ed in particolare proprio sul frangente di audio e video.
  • il sempre maggior affermarsi di Firefox come vero antagonista di Internet Explorer sul panorama dei browser, con una percentuale di “market-share” non più trascurabile (oltre il 25%), rende necessaria un’attenzione particolare alle tematiche del software libero, che Google ha sempre ascoltato in modo favorevole.
  • il sempre maggior diffondersi di “device mobili” (iPhone, smartphone, palmari, netbook, tablet e chi più ne ha più ne metta) con caratteristiche computazionali spesso inadatte a fare computazione pesante ma orientati sopratutto alla fruizione di contenuti web, tra cui per l’appunto i video, impone un occhio di riguardo alla tematica dell’implementabilità in hardware.
  • è in corso da parecchio tempo un braccio di ferro tra Adobe (proprietaria di Flash) ed Apple in quanto sugli iPhone non c’è il supporto a Flash. Apple si è giustificata dicendo che il player Flash è un software di scarsa qualità (cosa sulla quale potrebbero trovarmi parzialmente d’accordo, per altro) e che le specifiche del codec sono tali da rendere difficoltosa e costosa l’implementazione in hardware, fondamentale per una maggior durata delle batterie delle device mobili. Apple ha poi presentato, qualche tempo fa, una propria proposta per risolvere il problema, Gianduia (che sarebbe un’alternativa non solo a Flash ma anche a Silverlight, di Microsoft), che non ha però visto alcuna reazione da parte di Google, che evidentemente preparava il lancio di VP8.

Andiamo allora ad analizzare le reazioni dei “player” più importanti di fronte all’annuncio di Google:

  • I proprietari di Flash (Adobe per l’appunto) sono stati i primi a replicare all’annuncio di Google, affermando che il formato VP8 sarà immediatamente supportato dal player Flash. Per Adobe l’orizzonte sembra piuttosto scuro: l’arrivo di HTML5 comporterebbe il progressivo abbandono di Flash come colonna portante dell’animazione sul web, della quale oggi è l’unico indiscusso interprete. L’implementazione di VP8 potrebbe consentire di mantenere un certo respiro per via della “backward compatibiliy” (i siti consentiranno l’accesso ai propri contenuti sia tramite Flash, per i browser più vecchi, sia attraverso HTML5). Andare a braccetto con Google significa inoltre garantirsi l’enorme visibilità legata a YouTube (che costituisce una parte preponderante del video online) e mette Adobe in una posizione dominante, sebbene riflessa.
  • Dopo il sostanziale “flop” di SilverLight e Bing, Microsoft cerca una via d’uscita per tornare ad essere un player importante del mondo del web a prescindere dalle (sempre minori) quote di mercato di Internet Explorer. L’orientamento alla “compatibilità” è già stato dimostrato con la maggior attenzione alle specifiche HTML e CSS delle ultime release del browser “made in Redmond” ed in Microsoft non devono essersi lasciati sfuggire il fatto che se Google va verso VP8, il web va verso VP8. Prendere la palla al balzo era fondamentale e l’annuncio del supporto a VP8 da parte di Internet Explorer 9 non ha tardato (così come non aveva tardato l’annuncio del supporto a H.264 non troppo tempo fa).
  • La posizione di Apple sulla questione VP8 era attesa da giorni e solo questa mattina si è appreso del parere “contrario” di Cupertino. Apple afferma che le royalty su H.264 non sono tali da renderle fastidiose (purtroppo nel mondo del software libero, costose o meno, non si possono pagare perché non c’è un ente preposto al pagamento stesso ed espone critiche tecniche sul formato VP8 stesso, considerato espressamente concepito per il web ed incapace di offrire contenuti di alta qualità, soprattutto se comparato al più prestante e complesso codec MPEG-4.

Si instaura (o meglio, si ravviva) così un braccio di ferro tra il crescente mercato delle device mobili targate “Apple” (numericamente non trascurabile) e quello del software libero, che certo non farà bene ad una crescita “sana” del web. Purtroppo per Apple, in questo caso, la posizione di Google non sarà verosimilmente una posizione “d’attesa”, e “tagliare fuori gli iPhone dai contenuti video di Youtube” potrebbe essere una minaccia in grado di smuovere non poche poltrone, a Cupertino…

E’ nata una nuova informazione

Sta andando in onda (o sta finendo) raiperunanotte.it. Per chi si fosse perso la notizia, si tratta di un programma “televisivo”, mandato in streaming su internet e trasmesso da alcune televisioni satellitari (tra cui Current tv) e da alcune radio (ad esempio quelle del Popolare Network) pensato e condotto da Michele Santoro e che ha visto la partecipazione di numerosi esponenti del giornalismo italiano; obiettivo (dichiarato) quello di aggirare l’illegittima sospensione (voluta dal Governo Berlusconi) dei “talk show politici” durante il periodo elettorale.

Nuova non solo perché è auto-finanziata (50.000 persone hanno versato 2,50€ a testa affinché la trasmissione andasse in onda), non solo perché ha visto una convergenza tra televisione ed internet che in Italia è tutt’ora un sogno, ma soprattutto per la penetrazione ed i risultati che ha ottenuto: 120.000 visitatori unici contemporanei (per la parte web) sono qualcosa di inimmaginabile per un’iniziativa di questo genere. La trasmissione è diventata il tema della serata, e questo nonostante il bavaglio imposto dal governo ai mass media.

Mi chiedo, ora, e voglio chiederlo a tutti coloro che qualche mese fa sostennero che non vi era “alcuna emergenza democratica” nel settore dell’informazione: ora che sono stati sospesi i talk show di approfondimento (quindi quelli che dovrebbero idealmente consentire la formazione di un’opinione ponderata agli elettori che se la formano con la sola televisione, cioè il 70% dell’elettorato italiano), continua a non esserci alcuna emergenza democratica? Ora che la Tg1 e Tg5 sono stati multati (nonstante l’inezia economica della multa), non c’è un’emergenza democratica? Ora che (Il Sole 24 Ore, certo non un giornale di sinistra) si evidenzia come l’informazione dei canali privati italiani sia fortemente sbilanciata a favore del governo e della maggioranza, non c’è un’emergenza democratica? Ora che per fare una trasmissione che parli di ciò che accade in Italia (pensare che a me Santoro non piace nemmeno) si debba andarsi a rifugiare su internet (per quel che durerà, e queste parole saranno profetiche), non c’è ancora un’emergenza democratica?

In ogni caso, per concludere, questa sera ho sentito dire ad un personaggio del calibro di Gad Lerner una cosa rivoluzionaria, per ciò che la televisione italiana è (diventata): basta con i talk-show/pollaio; che si facciano trasmissioni al servizio dei cittadini e della verità: un servizio d’approfondimento/inchiesta (come molti giornalisti in Italia sanno fare), imparziale, coerente. Poi 1 minuto a testa per rispondere alle domande, niente repliche, niente interruzioni (altrimenti, semplicemente, fuori dallo studio). Un faccia a faccia vero, che non lascia spazio a manipolazioni e menzogne.

Chiedo troppo? Forse. Oggi però ho visto realizzarsi un sogno; concedetemelo, per stavolta.

Dei rischi del Cloud Computing

chrys via Flickr

chrys via Flickr

Trovo (colpevolmente) tempo solo oggi di leggere questo articolo di Luca Annunziata che su Punto Informatico riprende le posizioni di Richard Stallman riguardo al Cloud Computing.
Vale forse la pena, prima di inoltrarci nella discussione, di spiegare brevemente ed in termini facilmente comprensibili il concetto: si parla di Cloud Computing riferendosi al diffondersi delle “Web Application”, della disponibilità di dati in remoto ed accessibili da device diverse; l’esempio più lampante è sicuramente costituito dal sistema delle Google Apps: posta elettronica, rubrica, calendario, feed reader, suite per l’ufficio e storage documentale accessibili da qualsiasi pc, telefonino, smartphone dotato di connessione ad internet, con analogo accentramento di tutte le funzionalità e configurazioni delle varie applicazioni (filtri antispam, regole di catalogazione di posta ed eventi, dettagli dei contatti, indirizzi degli appuntamenti…)

I rischi che Stallman sottolinea nell’intervento ripreso dall’articolo di Luca sono indubbiamente rischi concreti (e non tengono conto del non indifferente fattore privacy!): nell’ottica del software libero, spostare dati e computazione lato server significa perdere il controllo su codice sorgente e dati, segnando una importante vittoria per il software proprietario. Purtroppo quello che ci troviamo ad affrontare, è un problema ben più complesso di quello del semplice controllo del software che gira sul nostro computer: in un’ottica non più di “uno a uno” (io ed il mio portatile) ma di “uno a molti” (un “application provider” ed i suoi innumerevoli utenti), anche l’uso di tecnologie “libere” lato server è difficilmente verificabile e controllabile. Su questo fronte, la differenza tra software libero e software proprietario decade (a favore del software proprietario) in quanto l’utente non ha più la possibilità di verifica.

In un mondo dell’informatica che passa sempre più dall’elaborazione locale all’elaborazione online, è questo un problema che va analizzato, compreso ed affrontato, non negato o “ignorato” come Stallman propone di fare. Il guru del software libero infatti suggerisce: “fate il vostro lavoro con il vostro computer usando software libero”.
Bello, figo, ma se non ho il computer con me? Se volessi davvero non dover accendere il portatile, magari in auto, per recuperare l’indirizzo di un contatto con il quale ho appuntamento per poterlo impostare nel navigatore satellitare? Rinunciare ai progressi della tecnologia non credo sia la risposta giusta al problema.

Quando Stallman si trovò di fronte al dominio dei sistemi operativi proprietari, suggerì forse di ricorrere all’uso di carta e penna? No.
Ho l’impressione che con gli anni Stallman si stia arrugginendo ed arroccando su posizioni non difendibili, e questo fa molto, molto male al movimento dell’opensource…

Oggi sciopero

Oggi sciopero.
Sciopero perché si cerca di imbavagliare l’informazione.
Sciopero perché credo in un mondo in cui i cittadini siano liberi di informarsi.
Aderisco anche io all’iniziativa corale dei blogger italiani contro il DDL Alfano.

Ci sarebbe anche una manifestazione in Piazza Navona, alla quale (impegni di lavoro a parte) avevo anche pensato se partecipare: in realtà sono piuttosto convinto che non abbia molto senso, ma la mobilitazione della comunità degli “internauti” può avere comunque un risvolto positivo… speriamo…

Sicurezza dei dati “web-2.0”?

Aristocrat via Flickr

Aristocrat via Flickr

Oltre ai problemi legati alla privacy (di cui si è parlato in lungo ed in largo negli ultimi giorni, anche grazie alla risonanza data alla questione “Policy Facebook” e sulla cui questione quindi non spenderò ulteriori parole), il mondo delle web-applications nasconde alcuni ulteriori rischi, di cui siamo forse ancora meno coscenti di quanto non lo siamo in tema di protezione dei nostri dati personali.

Lo spunto me lo dà un post di Nicola Losito sulla fine di Ma.gnolia.com, la piattaforma di Social Bookmarking (analoga a delicious.com): dove sono i nostri dati, e come vengono salvaguardati? Finché riesiedono sul nostro pc, i nostri files, email, bookmarks e tag sono sotto il nostro diretto controllo e soprattutto sotto la nostra diretta responsabilità: spetta evidentemente a noi l’onere di mantenerne una copia di backup, in modo da poterli recuperare in caso di guasti o inavvertite cancellazioni.
Nel momento in cui, però, i nostri dati vanno in remoto, l’onere del backup a chi spetta? E’ vero che i grossi provider di web-applications (Google su tutti) hanno sistemi di storage in grado di gestire senza problemi di alcun genere eventuali guasti ai sistemi, ma ogni volta che sottoscriviamo un servizio online verifichiamo le strutture informatiche che lo sostengono (o ce ne viene in qualche caso data la possibilità)? Non è forse per di più capitato che Google “perdesse” le email di alcuni suoi utenti?

E’ poi vero che possiamo mantenere una copia di backup dei dati che carichiamo online in locale? Una parte significativa dei contenuti che carichiamo online è rappresentata dall’interazione di questi con le piattaforme su cui vengono caricate o gli altri servizi online che vi fanno riferimento; cerco di spiegarmi: qual’è il valore del mio elenco dei miei bookmarks su Delicious.com? In se per se, poco o nulla (ne ho per altro una copia in locale, visto che vengono sistematicamente backuppati e sincronizzati), ma i tag che vi ho assegnato, l’interazione della piattaforma di delicious.com con altre web-application, siano queste Facebook, Friendfeed o altre, queste si che sono informazioni di valore, difficili anche da sottoporre a backup. Lo stesso discorso vale per le foto caricate su Flickr: mantenerne una copia di backup in locale mi permetterà di recuperare le foto, magari i tag (se ho avuto l’accortezza di esportare questi dati da applicativi “avanzati” come F-Spot), ma la geolocalizzazione? I commenti? La parte “sociale” di Flickr?
Tutto questo è ovviamente parte integrante del valore della web-application di turno (e spesso il motivo principale per cui ne facciamo uso) ed è comprensibile che vi sia una certa ritrosia a consentirne l’esportazione (e quindi il backup).

Ancora una volta ci si rende conto di quanto la vera merce di scambio online siano i dati e non direttamente il vil denaro, di quanto non abbiamo ancora maturato una reale percezione della cosa e di quanto (quindi) ci esponiamo al caso e/o alla serietà delle entità con cui ci troviamo a dialogare, spesso a noi sconosciute…

Internet sul lavoro è sempre una perdita di tempo?

Slaving for The Man™ Lavoro ormai da qualche anno a diretto contatto con le infrastrutture informatiche di aziende di dimensione e filosofie piuttosto variamente assortite. Mi sono occupato (sempre per conto dei clienti ed in base a ciò che mi veniva di volta in volta richiesto) di limitare o consentire la navigazione web dei dipendenti nei e con le considerazioni più disparate.

Qualche tempo fà, poi, mi sono trovato di fronte ad un dato statistico riportato da downloadblog (che a sua volta cita Arstechnica) che ci dice che mediamente il 25% del tempo lavorativo viene utilizzato per “navigazione personale su internet”. Ora, al di là dell’assurdità del dato in sé (considerando tutti i lavoratori che non hanno accesso ad internet, dovremmo concludere che quelli che ce l’hanno lo usino “a scopo personale” per ben oltre il 100% del proprio tempo lavorativo), voglio provare a porre una questione di fondo, magari dando uno spunto per un minimo di discussione: dove sta il confine tra “personale” e “per lavoro”?

Cerco di spiegarmi: non voglio nascondermi dietro un dito, una significativa parte del mio tempo “lavorativo” è spesa controllando e rispondendo a mail personali, leggendo feed rss tra i più disparati (compresi alcuni fumetti, video più o meno divertenti, articoli di politica), seguendo in modo più o meno assiduo (in modo inversamente proporzionale alla mole di lavoro arretrata, solitamente) alcuni tra i più usati social network. Non solo non voglio nascondermi dietro ad un dito, in realtà, ma anzi non faccio assolutamente nulla per nascondere questa mia attività: spesso e volentieri è tornata comoda in prima battuta proprio ai miei clienti, che hanno usufruito di contatti personali, conoscenze, spunti, idee per migliorare la loro produttività, o semplicemente per ottenere un servizio migliore, da o attraverso di me.

La mia è indubbiamente una posizione felice, sotto questo punto di vista: facendo il consulente, mi occupo essenzialmente di vendere “conoscenza” ed è quindi ipotizzabile un’assimilazione del tempo passato “a zonzo per internet” come parte di un investimento in “formazione professionale”; meno vero potrebbe risultare per un operaio il cui compito sia quello di avvitare lo stesso bullone 8 ore al giorno (anche se in questo caso mi chiedo dove sarebbe l’accesso ad internet ed a che aspetto del lavoro gioverebbe).

Eppure fatico ad entrare in quest’ottica: non sono convinto che nella “società dell’informazione” si possa ancora catalogare l’accesso alle notizie, alla conoscenza, alla Rete come “personale”, scindendo questo in modo netto e puntuale rispetto a quella che invece è parte dell’attività lavorativa.
Si tratterebbe a mio avviso di una concezione piuttosto miope, considerando la direzione che il mondo del lavoro và imboccando… d’altra parte, non sarebbe l’unica…

Sia ben chiaro: non voglio giustificare l’occupazione di risorse aziendali per fini personali. Ciò che intendo dire è che potrebbe risultare poco lungimirante considerare non interconnesse (soprattutto dal punto di vista dell’informazione e della conoscenza) la sfera privata e quella lavorativa…

Qualche parola sul caso ThePirateBay.org

Jolly Roger Avevo questo post in “hold” da parecchi giorni, alla ricerca non solo di scrivere il post in sé, ma anche molto più semplicemente per raccogliere un po’ le mie idee e sensazioni a riguardo, elaborarle, renderle un discorso coerente e organico. Il dibattito lanciato da Andrea Monti al Moca, questa sera, è servito proprio a questo scopo, per quel che mi riguarda, e ancora seduto sulla mia seggiola in plastica, in platea, mi accingo a lanciare qualche opinione su questo argomento, già ampiamente trattato negli ultimi giorni all’interno della blogopalla.

Cominciamo con un breve riepilogo su quanto accaduto e sui risvolti che le azioni intraprese dalla magistratura hanno (e avranno) sugli utenti: ThePirateBay.org è uno dei maggiori (probabilmente il più famoso, quantomeno il più “ampio”) centro di aggregazione ed indicizzazione dei tracker di Bittorrent (il famoso protocollo di download peer-to-peer) al mondo, con sede in Svezia.
Nonostante si trovasse fuori dalla giurisdizione italiana, con un banale escamotage (la possibilità che il reato di “pirateria” fosse stato “iniziato” sul suolo italiano), il 10 agosto 2008 viene ordinato il blocco degli accessi al sito in questione da parte del Procuratore di Bergamo Mancusi, che ha così dato seguito ad una denuncia giunta (pare) da parte delle major discografiche e dell’intrattenimento italiane.
Molti provider italiani (tutti quelli a cui fino ad oggi è poi effettivamente giunta l’ordinanza) hanno rapidamente provveduto a impedire l’accesso a ThePirateBay.org, effettuando una redirezione dei risultati delle query DNS ad un diverso indirizzo IP (l’identificativo numerico univoco del server all’interno della rete internet) appositamente preparato.

E’ importante in questo frangente sottolineare come non si tratti del primo caso di questo genere, ne tantomeno giunga inaspettato: la cosa era nell’aria da tempo (ThePirateBay stessa aveva denunciato più volte minacce da parte di alcune lobby, anche italiane) e la procedura utilizzata è già stata ampiamente collaudata: i siti di scommesse online non associati all’AAMS (magari perché non residenti sull’italico suolo) sono ad esempio stati bloccati con la stessa soluzione tecnologica.

Venendo al dunque, dove sbaglia (secondo il mio modesto parere, naturalmente) la magistratura:

  • innanzi tutto colpisce il mezzo, non il reato. Il protocollo peer-to-peer di Bittorrent può essere utilizzato per fini assolutamente leciti e anzi, tra i protocolli di file sharing, è indubbiamente quello che maggiormente viene utilizzato per scopi assolutamente legali, quale il download più rapido delle immagini delle distribuzioni GNU/Linux (che si avvantaggiano così della velocità legata al download simultaneo dagli utenti che hanno già terminato il download e mettono a disposizione quanto scaricato a favore degli altri). Bloccare il tracker (e quindi il cuore pulsante dell’architettura protocollare di Bittorrent) è un po’ come impedire l’uso del coltello nelle cucine di tutti gli italiani perché qualche malintenzionato utilizza questo strumento per commettere omicidi e rapine. E’ concettualmente sbagliato.
  • L’incompetenza tecnologica che trapela dall’ordinanza, è da far cadere le braccia. A differenza di quanto infatti accade nella maggior parte dei casi, il reindirizzamento del DNS non è stato fatto, in questo caso, verso una pagina statica sotto il controllo dell’autorità giudiziaria, ma verso un server sotto il controllo delle major discografiche stesse, alle quali vengono così consegnati su un piatto d’argento i dati personali e privati di tutti gli utenti (ancora una volta, legittimi o meno) di ThePirateBay.org.
    Senza voler andare a pensare al complotto (ovvero che questa soluzione sia stata volontariamente suggerita dalle major per poter “sgraffignare” dati degli utenti e così poterli identificare ed eventualmente denunciare con maggior precisione), non si può che restare basiti di fronte a tanta ignoranza da un lato, e incuria delle conseguenze di una propria ordinanza dall’altro: cosa penseremmo di un provvedimento che bloccasse la circolazione dei mezzi pesanti, magari in seguito ad un grave incidente stradale? Non criticheremmo forse la necessità di questi ultimi per la vita industriale del nostro paese, magari per la sopravvivenza stessa dei cittadini? Il fatto che la tecnologia informatica spesso resti “celata” (e così deve essere, agevolare in modo trasperente, esattamente come succede con l’abs o il controllo della trazione della nostra auto) impedisce di rendersi conto delle conseguenze che la sua eliminazione avrebbe; per questo motivo mi piacerebbe che magistrati e politici consultassero esperti in informatica prima di dar seguito ad azioni che riguardano un campo sul quale denotano una tanto palese (e giustificabile, naturalmente) ignoranza.
  • Infine, il terzo errore della magistratura è quello di perseverare nel percorrere una strada che si è rivelata palesemente infruttuosa: la redirezione degli indirizzi IP è una delle modalità più semplicemente aggirabili (basta cambiare server DNS, magari facendo uso di dns stranieri come OpenDns) e proprio l’esperienza legata alla collaudata pratica è dimostrazione che gli utenti che hanno interesse a raggiungere un certo sito lo faranno indipendentemente dall’indirizzo ip proposto dal server DNS del proprio provider. Tecnologicamente parlando esistono metodi molto più efficaci (e dal mio punto di vista raccapriccianti) per costringere il traffico su un certo sito web, si tratterebbe solo di voler affrontare le cose con (ancora una volta) cognizione di causa.
    Per fare un’altro paragone, spero chiarificatore, è come se si impedisse l’accesso alla Milano – Bergamo chiudendo il casello di Milano Est e non quello di Agrate.

Queste cose erano già state più o meno diffusamente indicate da coloro che hanno partecipato alla discussione sul tema, negli ultimi dieci giorni. Proprio su questa discussione, invece, voglio puntare il dito (consentitemi l’eufemismo). Sono stati spesi fiumi di parole, tutte più o meno di parere convergente, ma con quale effetto pratico? Assolutamente nessuno, neppure la generazione di un movimento di promozione di una qualche forma di iniziativa fisica.
Si tratta, a mio avviso, di un segnale che ridimensiona fortemente il ruolo della blogosfera nel panorama dei media italiani, che la relega ancora una volta al ruolo di “comparsa chiacchierante ed autoreferenziale” (dopo alcuni segnali invece constrastanti raccolti negli ultimi mesi).
Sarebbe forse ora che i rappresentanti storici della blogopalla raccogliessero il già ampiamente ripetuto invito a fare mente locale ed agire di concerto per far fare al mondo dei blog quel salto di qualità che fino ad oggi è evidentemente mancato