Archivi tag: Google

Dell’auto-isolamento di Google Plus

Sto inutilmente cercando da almeno 20 minuti un plugin di WordPress, un tool, una qualche funzionalità che mi consenta di aggiornare (come faccio con twitter nativamente, con Facebook via Twitter e/o NetworkedBlogs) il mio profilo di Google Plus; vorrei che apparissero le cose che dico (solitamente su Twitter) e/o i miei post su questo blog. Quello che, insomma, si vorrebbe far apparire su un Social Network. Invece non trovo nulla, e non è la prima volta che cerco. “Sembra quasi” che a Mountain View abbiano deciso di tenere Google+ il più chiuso possibile in se stesso, esattamente all’opposto di quanto Buzz faceva (integrando in modo piuttosto interessante per la verità post provenienti da un sacco di fonti diverse).

Non mi piaceva particolarmente, Google Buzz ma trovo piuttosto fastidioso Google Plus da questo punto di vista. Non so se sia io ad essere inacidito (leggere “vecchia zitella acida”), ma a distanza di vari mesi dal suo lancio in grande stile, Google Plus è, per quanto mi riguarda, solo “un altro” Social Network, e non un reale rivale di Twitter o (meglio) Facebook.
Ha introdotto features interessanti e soprattutto ha portato ad una revisione e ad una maggior integrazione delle altre Google Apps che uso (il lungo lavoro non è ancora finito, ma non disprezzo la visualizzazione delle “cerchie” in Google Contacts, l’unificazione dei profili di Gmail e via dicendo). Solo che il mio profilo non è aggiornato: non ho alcuna intenzione infatti di inviare il mio post a 15 social network diversi manualmente, quindi ciò che può essere aggiornato automaticamente da una singola fonte ben venga, il resto rimane vuoto.

Fatico in realtà (ed è questa la ragione per cui scrivo qui) a spiegarmi quale sia l’ingrediente mancante in Google Plus. Facebook ha probabilmente “la massa critica” per essere interessante come Social Network: ho faticato per mettere in piedi NetworkedBlogs una volta che i Facebook Developers hanno eliminato la possibilità di inserire Note attraverso il vecchio plugin di WordPress perché ricevo mediamente molti più commenti via Facebook che attraverso i commenti stessi del blog. Che sia solo la “massa critica quindi”? Non saprei: Twitter non ha certo la stessa massa critica di Facebook (per quanto in crescita) e forse neppure di Google Plus… eppure risulta interessante per la qualità dei commenti che si ricevono, per la pervasività che un’informazione riesce a raggiungere.

Finito il post, resto con i dubbi di quando l’ho cominciato. Magari qualcuno dei miei lettori ha una chiave di lettura migliore della mia…

VP8: Apple contro tutti

Google I/O

Pat Hawks via Flickr

Sembrerà male, sarà poco elegante, ma lasciatemelo dire: “l’avevo detto”. Qualche tempo fa’, all’epoca dell’acquisizione di On2 da parte di Google ed in piena battaglia sulla questione dei codec (con Mozilla che all’ora si schierava apertamente a favore di Theora e contro H.264), si discuteva dei possibili sviluppi allo scenario dell’informatica (e di Internet in particolare) che questo passo avrebbe portato. Il maggior valore di On2 infatti (quello che Google voleva verosimilmente acquistare), sta decisamente nel codec VP7 (del quale viene oggi annunciato il successore, VP8 per l’appunto) ed era facilmente prevedibile che Google preparasse una mossa “ad effetto” rilasciando questo codec sotto una licenza libera (nella fattispecie si tratta della licenza BSD) e senza “royalties”, andando così a dichiarare guerra aperta ad Apple (su tutti) ed al codec H.264 all’interno delle specifiche video di HTML5.

Cos’è un codec?

Ok, mi rendo conto, troppe sigle. Urge una spiegazione per chi non mastica pane e bit da mattina a sera. La rappresentazione di immagini su uno schermo (sia questo quello della televisione o quello di un pc, o di un telefonino poco importa), necessita senza eccezione alcuna della definizione di una “rappresentazione informatica” dei dati che si vogliono far apparire. Questa rappresentazione (che può assumere molte, moltissime forme), viene definita “codec“. Per chiarire il concetto di “codec”, facciamo un esempio pratico: ci troviamo nella condizione di voler visualizzare sullo schermo di un pc un’immagine completamente bianca (il caso più semplice); il meccanismo più semplice per rappresentare digitalmente questa immagine è quello di descrivere pixel per pixel i colori che la compongono; assegneremo quindi una scala di colori (dal bianco al nero, passando per tutti i vari colori), partendo da 0 (bianco) ed arrivando, ad esempio, a 255 (nero); dopodiché inseriremo in un file le codifiche di ogni singolo pixel che compone la nostra immagine, uno di fianco all’altro; nel momento in cui (dotandoci di un apposito programma che sia capace di “decodificare” il nostro codec), andremo a visualizzare l’immagine, sarà sufficiente leggere i codici colori e “colorare” i pixel dello schermo sulla base dei colori indicati.
Naturalmente un codec così semplice ha delle limitazioni notevoli

  • prima di tutto non è in grado di mostrare immagini in movimento (potremmo però comporre più rappresentazioni in successione, creando il movimento)
  • secondariamente è molto poco efficace: un’immagine 1920×1080 pixel (il formato del “Full HD” ci costringerà a definire 2.073.600 pixel, anche se fossero tutti bianchi. Un’idea potrebbe essere quella di indicare le sequenze di pixel colorati allo stesso modo in versioni “ridotte”, o assegnare “codici” a sequenze definite e ripetitive di pixel…
  • c’è poi la questione del codice colore: 256 colori sono decisamente pochi per rappresentare con un’immagine di buona qualità. L’aumento del numero dei colori possibili però (e quindi della dimensione della rappresentazione del singolo pixel), fa crescere proporzionalmente la dimensione dell’immagine finale: se posso rappresentare 256 colori con 32bit (e quindi la nostra immagine di cui sopra da 2.073.600 pixel “peserà” 8.2 megabytes), rappresentarne solo 512 (il doppio) necessiterà di 64bit (e quindi arriveremo a 16.4Mb). Una “profondità di colore” che consenta immagini realistiche si aggira intorno ai 16.7 milioni di colori, portando la nostra immagine a dimensioni spropositate (svariate migliaia di gigabytes).

Ecco quindi il perché del fiorire di codec differenti: ottimizzazione delle prestazioni a parità di dimensione della rappresentazione digitale (con algoritmi di codifica più o meno complessi), velocità di codifica e decodifica e via dicendo. Anche la semplicità dell’algoritmo del codec stesso è un fattore molto importante: un algoritmo molto  complesso è difficilmente implementabile “in hardware” (dedicandogli quindi un chip che faccia il lavoro di decodifica), con ripercussioni notevoli sul consumo di batteria (un chip dedicato consuma meno del processore che esegue il software di decodifica) e sulla velocità di decodifica.

Di fronte a tutti questi codec, ci sono come al solito due vie per “standardizzare” l’uso di un codec piuttosto che l’altro: la via “de jure”, che prevede l’inserimento di un ben specifico codec all’interno di un formato, oppure la via “de facto” in cui è l’adozione massiccia (solitamente per via di caratteristiche tecnica inconfutabili) a dettare la standardizzazione del formato. Nel mondo reale, una “specifica” consente spesso di adottare codec diversi all’interno del “contenitore”: la sezione video delle specifiche HTML5 (la nuova versione delle specifiche HTML che consentono di creare pagine web “arricchite” senza bisogno di ricorrere ad “aiuti esterni” come Flash o player dedicati) è definito che si possano usare codec differenti sia per quanto riguarda il canale audio che quello video, il che ha portato fino ad oggi all’adozione di H.264 (codec video) e AAC (codec audio). Purtroppo il formato H.264 è proprietario e (soprattutto) gravato dalla necessità di pagare una “tassa” (royalty) al proprietario del codec stesso, cosa non possibile nel caso di software libero (sviluppato cioè, semplificando, sotto la spinta di una comunità di sviluppatori e non di un’azienda che possa farsi carico del pagamento della royalty stessa).

Dicevamo…

Tornando alla discussione iniziale, la scelta di Google di rendere il successore del codec VP7 (acquisito attraverso l’acquisto On2), detto VP8, libero ed esente da royalty, oltre che prevedibile, apre un nuovo scenario, consentendo l’implementazione delle specifiche HTML5 attraverso codec liberi e royalty-free (affidando la parte audio all’ottimo codec Theora). Purtroppo VP8 è al momento ancora un codec incompleto (e le specifiche sembrano essere ancora poco precise) ed apparentemente coperto da una serie di “software patents” (i brevetti software che in Europa si cerca di scongiurare da svariati anni ma che sono da anni legge negli Stati Uniti) che renderebbero Google un soggetto facilmente attaccabile sul fronte giudiziario. Visto che però a Mountain View non sono degli sprovveduto, ritengo che abbiano in mente tempi e modi per risolvere queste problematiche.

Il motivo per cui questa scelta da parte di Google porta tanto scalpore, è da ricercarsi nella particolare congiuntura in cui il mondo del web si trova oggi:

  • il ruolo sempre più importante del video nel web (ed il particolar modo il fenomeno YouTube, acquisito da Google qualche anno fa) e la scarsa adattabilità di Flash nel ruolo di player più usato (per via sia della parte software, proprietaria e ormai vecchiotta, sia del codec scelto), portano particolare attenzione sulle nuove specifiche HTML5 ed in particolare proprio sul frangente di audio e video.
  • il sempre maggior affermarsi di Firefox come vero antagonista di Internet Explorer sul panorama dei browser, con una percentuale di “market-share” non più trascurabile (oltre il 25%), rende necessaria un’attenzione particolare alle tematiche del software libero, che Google ha sempre ascoltato in modo favorevole.
  • il sempre maggior diffondersi di “device mobili” (iPhone, smartphone, palmari, netbook, tablet e chi più ne ha più ne metta) con caratteristiche computazionali spesso inadatte a fare computazione pesante ma orientati sopratutto alla fruizione di contenuti web, tra cui per l’appunto i video, impone un occhio di riguardo alla tematica dell’implementabilità in hardware.
  • è in corso da parecchio tempo un braccio di ferro tra Adobe (proprietaria di Flash) ed Apple in quanto sugli iPhone non c’è il supporto a Flash. Apple si è giustificata dicendo che il player Flash è un software di scarsa qualità (cosa sulla quale potrebbero trovarmi parzialmente d’accordo, per altro) e che le specifiche del codec sono tali da rendere difficoltosa e costosa l’implementazione in hardware, fondamentale per una maggior durata delle batterie delle device mobili. Apple ha poi presentato, qualche tempo fa, una propria proposta per risolvere il problema, Gianduia (che sarebbe un’alternativa non solo a Flash ma anche a Silverlight, di Microsoft), che non ha però visto alcuna reazione da parte di Google, che evidentemente preparava il lancio di VP8.

Andiamo allora ad analizzare le reazioni dei “player” più importanti di fronte all’annuncio di Google:

  • I proprietari di Flash (Adobe per l’appunto) sono stati i primi a replicare all’annuncio di Google, affermando che il formato VP8 sarà immediatamente supportato dal player Flash. Per Adobe l’orizzonte sembra piuttosto scuro: l’arrivo di HTML5 comporterebbe il progressivo abbandono di Flash come colonna portante dell’animazione sul web, della quale oggi è l’unico indiscusso interprete. L’implementazione di VP8 potrebbe consentire di mantenere un certo respiro per via della “backward compatibiliy” (i siti consentiranno l’accesso ai propri contenuti sia tramite Flash, per i browser più vecchi, sia attraverso HTML5). Andare a braccetto con Google significa inoltre garantirsi l’enorme visibilità legata a YouTube (che costituisce una parte preponderante del video online) e mette Adobe in una posizione dominante, sebbene riflessa.
  • Dopo il sostanziale “flop” di SilverLight e Bing, Microsoft cerca una via d’uscita per tornare ad essere un player importante del mondo del web a prescindere dalle (sempre minori) quote di mercato di Internet Explorer. L’orientamento alla “compatibilità” è già stato dimostrato con la maggior attenzione alle specifiche HTML e CSS delle ultime release del browser “made in Redmond” ed in Microsoft non devono essersi lasciati sfuggire il fatto che se Google va verso VP8, il web va verso VP8. Prendere la palla al balzo era fondamentale e l’annuncio del supporto a VP8 da parte di Internet Explorer 9 non ha tardato (così come non aveva tardato l’annuncio del supporto a H.264 non troppo tempo fa).
  • La posizione di Apple sulla questione VP8 era attesa da giorni e solo questa mattina si è appreso del parere “contrario” di Cupertino. Apple afferma che le royalty su H.264 non sono tali da renderle fastidiose (purtroppo nel mondo del software libero, costose o meno, non si possono pagare perché non c’è un ente preposto al pagamento stesso ed espone critiche tecniche sul formato VP8 stesso, considerato espressamente concepito per il web ed incapace di offrire contenuti di alta qualità, soprattutto se comparato al più prestante e complesso codec MPEG-4.

Si instaura (o meglio, si ravviva) così un braccio di ferro tra il crescente mercato delle device mobili targate “Apple” (numericamente non trascurabile) e quello del software libero, che certo non farà bene ad una crescita “sana” del web. Purtroppo per Apple, in questo caso, la posizione di Google non sarà verosimilmente una posizione “d’attesa”, e “tagliare fuori gli iPhone dai contenuti video di Youtube” potrebbe essere una minaccia in grado di smuovere non poche poltrone, a Cupertino…

Google Street View in 3D

Google ha inserito, pochi minuti fa, l’effetto 3D in Street View. Il risultato è che ora possiamo vedere (se minuti di appositi occhialini, che io non ho) le strade già coperte dal servizio Street View.

Ora mi chiedo: erano già state scattate in 3D e poi compresse (sarebbe stato lungimirante!) oppure il 3D è stato inserito in un secondo tempo? Se avessi degli occhialini potrei anche verificare: cliccando sull’apposita faccina (dotata di occhialini, lei si!) si passa rapidamente da una modalità all’altra.

Ciò detto… perchè??

Come la Cina

Censura

Nahuel |Bossanostra| via Flickr

Non potevo trovare un titolo più descrittivo: l’Italia come la Cina, è tra i pochi paesi al mondo ad applicare la censura ad internet: sebbene la Cina la applichi in modo più vasto, infatti, il principio è lo stesso.

Dapprima in Italia è stato vietato l’accesso a siti di scommesse non associati all’AAMS (Monopoli di Stato) e fin qui si poteva anche ritenere che ci poresse stare (nel senso che si poteva pensare ad un maggior controllo ed una maggior sicurezza per gli internauti italiani).
Poi, usando lo stesso meccanismo, si è provveduto ad oscurare “thepiratebay.org”, un sito svedese che ospita i così detti “torrent”, files che consentono di scaricare files (legali e non) in modalità peer-to-peer (e che risulta ancora oggi inaccessibile dall’Italia).

Per lo stesso principio (colpire il produttori di coltelli anziché l’assassino), ora si condanna Google per via di un video (per quanto riprovevole) caricato sul servizio YouTube.

Ed in tutto questo, la cosa che trovo più scandalosa, è l’assoluta mancanza di interesse, capacità di comprendere, protesta da parte degli italiani.

Mi tornano in mente alcune frasi, perché sembrano descrivere in modo spietato la realtà attuale del nostro paese:

Prima di tutto vennero a prendere gli zingari e fui contento perché rubacchiavano.

Poi vennero a prendere gli ebrei e stetti zitto perché mi stavano antipatici.

Poi vennero a prendere gli omosessuali e fui sollevato perché mi erano fastidiosi.

Poi vennero a prendere i comunisti ed io non dissi niente perché non ero comunista.

Un giorno vennero a prendere me e non c’era rimasto nessuno a protestare.

Martin Niemöller

“Percorsi alternativi” su Google Maps

http://maps.google.it/maps?f=d&source=s_d&saddr=Corso+Italia%2FSS526&daddr=Cinisello+Balsamo&hl=it&geocode=FYe8tQId1UaHAA%3B&mra=pr&sll=45.510505,9.045965&sspn=0.213164,0.63446&ie=UTF8&t=h&z=11Non so se sia una novità appena introdotta o sia solamente io particolarmente stordito (e quindi non me ne sono mai accorti), ma su Google Maps, ed in particolare nella parte legata alle indicazioni stradali, è disponibile l’elenco dei “percorsi alternativi” a quello suggerito.

Nella screenshot si può notare come per il percorso da Magenta a Cinisello Balsamo (che faccio un paio di volte al giorno) venga evidenziata (anche se la cartografia non è completa, mancando la parte interrata non ancora mappata) la possibilità di percorrere la (comodissima) SP46 in alternativa al trafficatissimo tratto urbano della A4.

Com0dissima per altro la funzione di highlight al semplice mouseover sui percorsi, che consente di visualizzare e scegliere rapidamente tra i percorsi disponibili, visivamente oltre che per tempo richiesto e spazio percorso (già presenti a lato).

Google Brain Search

E così Google si lancia nella lettura del pensiero. La beta di Google Brain Search, rilasciata quest’oggi mercoledì 1 aprile 2009, marca una svolta importante nella bio-ingegneria, consentendo a tutti gli utenti di BigG un salto nel futuro impensabile fino a ieri (e per alcuni, anche a partire da domani).

Il sistema è quantomai semplice da usare: dalla pagina di presentazione, chiedete l’invio dell’sms inserendo il vostro numero di cellulare. Vi arriverà sul telefonino il link da utilizzare per scaricare l’applicazione (soprendentemente veloce nel download, per altro), dopodiché potrete passare alla fase di indicizzazione: sarà sufficiente avvicinare il telefono alla testa e tenervelo per 60 minuti circa (tempo tecnico necessario ad indicizzare la vostra memoria tramite la sperimentale e quindi non troppo performante tecnologia CADIE), quando vi verrà dato l’ok dall’applicazione vi basterà pensare alla query di ricerca da fare affinché il risultato appaia sul display della vostra device mobile.

Le applicazioni di questa nuova tecnologia sono vastissime e difficili persino da enumerare: si parla persino di una rfc in arrivo a breve per standardizzare il tutto, garantendo così l’interoperabilità necessaria a fruire al meglio di questa rivoluzione…

ps: per gli amanti del genere, suggerisco un clic sulla C…

Google Chrome, una scossa al web (?)

So che questo post è chilometrico (1306 parole, già). Non lamentatevi, c’erano troppe cose da dire, e tutte importanti 😛

About Google ChromeE’ sulla bocca di tutti, blogger e non, in giro per internet e sui mass media: c’è chi se lo aspettava, chi invece è stato colto di sorpresa, in ogni caso Chrome, il nuovo browser opensource (è basato su WebKit, motore di randering html opensource utilizzato anche dal browser “made in Apple”, Safari) lanciato da Google, ha decisamente fatto parlare di sé. Ne parlerò anche io, come al solito cercando di non limitarmi a quanto “appare”, ma provando a guardare “sotto la scorza”: ne vengono fuori delle belle.

Tanto per cominciare, è indubbiamente affascinante l’idea di “partire da zero” (anche se utilizzare il motore di randering di Safari non è esattamente uguale a “start from scratch”) per progettare un browser pensato prima di tutto per interagire efficacemente con le web-applications, così diverse dai classici “siti web” che spesso rischiano di mettere in crisi i browser pensati e progettati anche solo pochi anni fà. Il web (ha ragione Google) è cambiato tantissimo ultimamente ed i browser hanno bisogno di una riprogettazione in quest’ottica, ma onestamente Chrome avrebbe potuto portare qualche innovazione in più, da questo punto di vista…

Uno dei primi aspetti sui quali è scattata l’attenzione, è la stupefacente velocità di randering di Chrome (che da alcuni test risulterebbe però inferiore a Firefox 3.1 con Tracemonkey): mi domando però quanto sia realmente percepibile una pur sostanziale differenza nei tempi di randering di una pagina (comunque inferiori al secondo, solitamente), quando spesso e volentieri il tempo di visualizzazione di un sito web è legato al tempo di download delle varie sue componenti e quindi alle prestazioni del collegamento di rete? Chiarisco il concetto: che me ne faccio di risparmiare mezzo secondo nel randering con Chrome, quando uso un modem 56k per scaricare le immagini che la compongono?

Anche tecnologicamente parlando, Chrome non è proprio impeccabile. Cominciamo però dalle note positive:

  • indubbiamente significativa l’inclusione nativa di funzionalità quali “Gears” (che sono per certi versi il futuro delle web applications) ed un nuovo motore JavaScript, riscritto (pare) da zero.
  • Dalla visione dei siti web come vere e proprie applicazioni deriva l’interessante (seppur non innovativa) idea di rendere le varie tabelle di navigazione processi realmente a se stanti, separando così la memoria che viene assegnata alle varie web-applications in esecuzione. Questo dovrebbe garantire un’incremento di sicurezza, probabilmente anche della velocità di randering (soprattutto su processori multicore) e una maggior “robustezza” del browser nel suo insieme (vanno in crash le tab e non il browser).
  • Non innovativa, ma comunque ancora “rara”, la possibilità di abilitare la modalità “hidden” (navigazione nascosta) che cancella cookies e history alla chiusura della finestra appositamente aperta: la funzionalità infatti è già presente in Safari ed in Internet Explorer 8 (del quale è stata rilasciata una versione beta non molto tempo fà). Su questo aspetto, andranno considerate le conseguenze di un simile approccio per quel che riguarda gli utenti: quanti utenti, sentendosi sicuri nella propria “anonimità”, andranno a cacciarsi in qualche spiacevole situazione, abbassando semplicemente la guardia? Ricordiamo che l’anonimità, su internet, non comporta solo aspetti legati ai cookie ed alla history, ma anche (o meglio, soprattutto) aspetti legati al tracking da parte dei siti web che vengono visitati dagli utenti, cosa che la modalità hidden di Chrome non evita in alcun modo.
  • Curiosa invece la soluzione di non bloccare i popup ma ridurli ad icona: l’icona infatti consuma comunque risorse (hardware e visive) e questa soluzione potrebbe essere sfruttata per portare agli utenti di questo browser vari tipi di attacchi di tipo Denial Of Service (voglio vedervi a navigare quando il sito in questione vi ha aperto la milionesima finestra di popup…). Oltretutto, nel caso in cui il contenuto del popup venisse comunque scaricato e “randerizzato” (bisogna verificare), questo può portare all’esecuzione di apposite web-applications malevole all’interno del popup stesso, che oltretutto avrebbero il vantaggio di non essere direttamente visibili all’utente (che deve aprire il popup per vederle).
  • Stupisce inoltre, da un punto di vista della mera “sicurezza informatica”, l’assenza di un sistema atto a prevenire attacchi più “web oriented” come i Cross Site Scripting: dovendo riscrivere il browser ed il motore JavaScript, non avrebbe avuto senso progettarli già con in mente questo genere di funzionalità?
  • Curiosa anche la mancanza del supporto per i feed RSS (potevano almeno mandarli direttamente a Google Reader, in attesa che fosse implementata la funzionalità)… dimenticanza?

Politicamente parlando, l’evidente intento di Google è quello di contrastare “con maggior forza” l’arrivo di Internet Explorer 8, scendendo direttamente nell’arena in cui si gioca la grande partita chiamata “browser war”. Chrome si avvanteggerà dell’immensa pubblicità che deriva dal nome che spunta sul 91% delle ricerche fatte online, garantendosi una quota di mercato che potrebbe non andare ad intaccare la quota di mercato di Firefox, ma di Internet Explorer (versione 7 o 8 poco importa, anzi il cambio di piattaforma potrebbe facilitare ulteriormente questo aspetto).
Finanziariamente parlando, invece, Google rientrerà verosimilmente nei costi di sviluppo con l’immenso valore dei dati (anche solo aggregati) che otterrà dall’uso che gli utenti faranno del browser.
Oltre ad avere già una penetrazione massiccia nel web (si parla di valori superiori all’80% dei siti, contando i referrer), con l’introduzione di Chrome infatti Google potrà tracciare:

  • Ogni URL che digitate (anche se non battete “invio”): infatti la barra degli indirizzi completa automaticamente e suggerisce eventuali risultati delle ricerche, e questo non può essere fatto in altro modo che inviando la stringa in fase di digitazione a Google stesso.
  • Ogni sito che visitate, visto che il suo URL verrà filtrato dal sistema antiphishing (come già capita anche con altri browser in realtà) e quindi comunicato a Google
  • Ci sono poi le “statistiche”, che (per quel che ho capito) devono essere disabilitate appositamente dall’utente.

Bisognerà capire, leggendo le policy sulla privacy, quali usi Google potrà fare di questi dati, il cuo valore è (robadisco) incommensurabile. Mi aspetto molte novità, in questo senso, nei prossimi giorni.

Nel frattempo, un’altra occhiata approfondita andrebbe data alle condizioni di licenza (che tutti avranno letto prima di accettare, immagino), che tra le altre cose propongono cose tipo “licenze d’uso permanenti ed irrevocabili” dei contenuti inviati tramite il browser (punto 11). Qualche domanda anche sulla compatibilità della licenza di Google con le garanzie del software opensource, onestamente, mi sorge: cito dall’EULA:

10.2 L’utente non può (e non può consentire ad altri di) copiare, modificare, creare opere derivate, decodificare, decompilare o altrimenti tentare di estrarre il codice sorgente del Software o di qualsiasi parte dello stesso, salvo se espressamente consentito o richiesto per legge o se espressamente consentito da Google per iscritto.

Questo a monito di coloro che non leggono i contratti di licenza che accettano. Pare in ogni caso che dopo le numerose proteste ricevute nelle ultime ore, in Google stiano mettendo le mani (retroattivamente) proprio sull’EULA. Vedremo.

Indubbiamente, in ogni caso, Chrome darà una scossa al mercato, come per altro precisamente annunciato tra le loro intenzioni. L’obiettivo principale di Chrome sembrerebbe proprio essere quello di dare una “svolta” al web, trasformandolo nella più grande piattaforma applicativa mai esistita, fornendo tecnologia e supporto allo sviluppo delle web-applications attuali e future. L’enorme pubblicità che verrà fatta (anche involotariamente) a Chrome, potrebbe inoltre portare altri utenti del leader di mercato (Internet Explorer) a “valutare la possibilità” di cambiare browser (quale che sia poi la loro scelta definitiva); questo renderebbe più egualitaria e meno “monopolistica” la scena della “browser war”, costringendo anche i grandi player (Microsoft su tutti) a scendere al compromesso di un rispetto reale degli standard (ad esempio un Internet Explorer sotto il 50% del mercato potrebbe significare la vera e propria condanna degli script ActiveX, con grande gioia degli utilizzatori di sistemi operativi diversi da Windows).

Mi auguro che Chrome sia però, prima di tutto, origine di una scossa per Firefox, il cui sviluppo è costante ed intenso, ma potrebbe avvantaggiarsi di alcune idee proposte proprio dal browser di Google, che potrebbero portarlo ad un rapido (ulteriore) miglioramento delle prestazioni e delle funzionalità che offre, soprattutto in materia di sicurezza e protezione dei dati (Firefox non ha ad esempio, banalmente, la funzionalità di “navigazione anonima”).

Insomma, dal mio punto di vista, Chrome non diventerà forse il più usato browser della rete, ma potrebbe avere come effetto principale quello di dare una nuova, importante scossa al mondo dei browser web (proprio ora che Microsoft ha finito lo sviluppo di Internet Explorer 8, dannazione… :P)

Un’estensione per la privacy online?

seleneQuesta mattina un cliente mi ha scritto una mail segnalandomi un interessante (e lodevole per qualità e completezza) articolo del Corriere, che spiegava quali tecniche si possono utilizzare per navigare “al sicuro” dalla profilazione da parte di Google (o in ogni caso da parte degli altri operatori della rete). Mi occupo, purtroppo, di privacy e sicurezza online da troppo tempo per credere che basti un’estensione di firefox per “navigare sicuri”.

Colgo allora l’occasione della risposta inviata per riportare un’analisi delle tecnologie riportate nell’articolo anche in queste pagine, perché nonostante l’articolo sia interessante e non fondamentalmente errato (anzi), penso che un po’ di precisazioni in materia possa essere d’aiuto per coloro che abbiano letto quell’articolo (soprattutto, che possa contribuire ad innalzarne il livello di paranoia :P).
Per coloro che invece fossero interessati ad approfondire anche tecnicamente l’argomento, consiglio vivamente il libro di Zalewski recensito su queste pagine qualche giorno fà, assolutamente abbordabile anche per coloro che non fossero proprio esperti in materia di informatica (Zalewski dimostra in questo libro una chiarezza davvero sorprendente per un tema così complesso).

Tanto per cominciare, è indubbio che sia è impensabile smettere di usare Google per evitare di essere da esso profilati. Non tanto perché è uno strumento completo e funzionante (esistono altri motori di ricerca, naturalmente, che fanno egregiamente il loro mestiere), quanto perché con una penetrazione in rete che sfiora l’80% (tra referrer e link su pagine che contengono script javascript che fanno capo a Google, su tutti AdSense e Analitycs), è ben difficile, tecnicamente parlando, aggirarne i tentacoli.

Cominciando poi dalle cose meno utili, breve accenno all’estensione scroogle: sposta banalmente il problema da Google ad un’altra entità (meno affidabile per altro, visto che non è così grosso ed importante da essere soggetto alle leggi di scala a cui invece si trova ad essere esposta l’azienda di Montain View), facendo filtrare tramite quest’ultima le richieste al Grande Motore. Se posso pensare di dare io la mia fiducia a Daniel Brandt (che “nel giro” gode certamente di una fama non indifferente, visto l’ottimo lavoro condotto da Google Watch) non si può certo pensare che per vincere la (sana) paranoia da tracciamento, spostare il target in questa direzione possa sortire qualche effetto.

Sicuramente più valida è l’opzione di usare in maniera correlata Tor e Privoxy, che insieme sono in grado di rendere effettivamente casuali la provenienza delle varie richieste nei confronti del web, rendendo inutili le tecniche di tracciamento fatte tramite cookie et simili. Una trattazione approfondita della tecnologia di Tor sarebbe fuori luogo in questo frangente, quindi lascerò l’approfondimento alla vostra discrezione: dirò solo che oltre all’esposizione ad un uso sbagliato di questa tecnologia (che ne vanifica l’utilità) gli utenti meno esperti, l’uso di Tor ha come suo punto debole i punti d’uscita della rete di “randomizzazione”, aspetto sul quale sono in corso alcune interessanti ricerche.

Analogamente, l’idea proposta da Track Me Not è indubbiamente interessante (e per altro incarna una delle strade che si stanno battendo proprio in questi mesi per combattere la profilazione): generare richieste “random” al motore di ricerca di turno per tentare di camuffare le richieste reali tra una certa quantità di “rumore” casuale è indubbiamente valida: il problema sta tutto nel riuscire a rendere credibili (e non distinguibili da quelle  reali) le richieste generate dall’estensione. Il fattore “caso” infatti è una delle cose più complicate da riprodurre tramite un computer, mentre viene spaventosamente bene ad un essere umano: quanto difficile sarebbe “filtrare” le richieste dell’estensione se venissero fatte a cadenza regolare, o con un generatore di numeri non sufficientemente casuale, o avessero un pattern di ricerca banale, riconoscibile, o semplicemente poco attinente con la tipologia media delle ricerche dell’utente? Analogamente, quanto difficile è riconoscere una persona mascherata a partire dalla voce, dal modo di muoversi, dai comportamenti? Questo è l’aspetto difficile del gioco, non certo la generazione di rumore…
La soluzione potrebbe essere nella generazionen di un pool remoto di pattern di ricerca (a cui ognuno dovrebbe contribuire inviando automaticamente le proprie) che possa essere poi replicato da tutti gli utenti che usino quella stessa estensione, introducendo un reale rappordo di casualità nella generazione dei pattern di ricerca. Rimarrebbe il problema della temporizzazione delle richieste “false”, ma sarebbe già un problema minore.

In questo modo cerca di agire, per quel che riguarda i cookies di tracciamento, da un’altra estesione interessante segnalata dall’articolo, Scookies (non per niente scritta dal buon Bakunin): questa estensione è effettivamente in grado di vanificare il tracciamento fatto a mezzo cookie, scambiando i cookie dei vari utenti in modo dinamico. Analogamente al caso di Tor/Privoxy però, questa tecnica è si in grado di rendere vano l’uso dei cookie di tracciamento, ma lascia aperte altre strade che rischiano di vanificare tutto il lavoro fatto (analogamente, in un certo senso, al rifiuto banale di usare i cookie, funzionalità già disponibile in moltissimi browser).

Con un po’ di attenzione e poca fatica infatti, si potrebbe differenziare comunque i vari utilizzatori indipendentemente dal cookie di tracciamento, facendo riferimento ad esempio a pattern ripetitivi di ricerche (difficile che il sottoscritto si trovi a fare ricerche su certi argomenti, molto più facile che cerchi qualcosa che riguardi l’informatica), alle temporizzazioni, al fetch dei dati dalle cache.
Quest’ultima tecnica è a mio avviso il vero problema chiave da risolvere nei prossimi anni per quel che riguarda la privacy online: ogni browser infatti è sperimentalmente identificabile a seconda dei dati che ha memorizzato tra i “files temporanei” (la cache appunto). Se un utente ha visitato una certa pagina in un certo momento, in cache verranno salvati certi files (con certi orari) e non altri. Se invece l’utente ha già visitato la pagina, il browser non richiederà tutti i files, ma solo alcuni (quelli che non ha in cache, o quelli che sono marcati come “non cachabili”); l’analisi di quali files sono richiesti, in quale ordine, con quali parametri (ad esempio la richiesta potrebbe arrivare per un file “solo se non è stato modificato dalle ore 23:53 del 24/08/2008”, rendendo facilmente identificabile addirittura l’ora di ultima visita di quello specifico utente), è in grado non solo di correlare le varie sessioni di uno stesso utente indipendentemente dal cookie di tracking, ma addirittura identificare la tipologia di browser che utilizza (ad esempio analizzando l’ordine con cui vengono richiesti i vari files che compongono una pagina web, che differisce da browser a browser, come Zalewski dimostra nel libro precedentemente citato).

Tutto questo senza considerare che è sperimentalmente dimostrato che si è oggi in grado di identificare un utente (perfino remotamente) dal modo con cui digita sulla tastiera (al punto che un’università americana ha messo a punto un sistema di login biometrico che si basa proprio su questo genere di analisi): velocità di battitura, errori più comuni, temporizzazioni.

Insomma, alla fine della fiera si torna sempre allo stesso concetto: quando si vuole difendere qualcosa, bisogna controllare tutto il fronte. Quando si attacca, basta trovare una falla, una dimenticanza…

Il web ed i soldi: Mediaset contro YouTube

14.04.2008: sua emittenza vi ha purgato ancora Uno dei grandi temi di discussione delle ultime settimane è stata indubbiamente la questione nata dalla causa per danni intentata da Mediaset contro YouTube (o per meglio dire contro Google, visto che YouTube è di sua proprietà). In effetti con 500 milioni di euro in ballo, da discutere ce ne sarebbe parecchio, ma ho la fortuna di poter affrontare la questione conoscendo una delle persone in causa (Matteo Flora, il consulente di Mediaset in tutta la vicenda) e potendo quindi tentare di avere un punto di vista più neutrale di quanto non sia capitato ad altri.

Il tutto verte sul fatto che YouTube utilizza e trasmette (senza ovviamente pagare i diritti per farlo) migliaia di ore di registrazioni di trasmissioni e materiali vari di proprietà di Mediaset (e di varie altre emittenti del globo terraqueo). Per la legge italiana (e non solo per quella, visto che numerose altre cause analoghe in giro per il mondo sono state già in corso, non ultima quella che vede impegnata l’emittente statunitense Viacom, proprietaria tra le altre di MTV) questo è un reato, in quanto non vengono riconosciuti di diritti d’autore dell’opera in questione.
Tanto per fare un paragone (nemmeno troppo azzardato) è come se un vostro filmato (magari presente proprio su YouTube) venisse preso ed utilizzato, trasmesso, dalle televisioni generaliste (Mediaset, altro esempio nemmeno troppo azzardato) senza che alcun diritto d’autore vi venga riconosciuto (neppure la basilare “Attribuzione” prevista anche dalle Creative Commons). Non è simpatico, no?
E’ capitato molte volte, probabilmente capiterà ancora, ma a qualcuno toccava fare il primo passo per sollevare la questione ed il caso ha voluto che in Italia si trattasse di Mediaset (non per niente il principale attore della televisione privata).

E’ vero, da un lato, che YouTube potrebbe sostenere di aver solamente fornito la piattaforma di storage che ha consentito la trasmissione dei filmati (il cui upload viene effettuato dall’utente registrato, che in questo caso garantisce implicitamente di essere in possesso dei diritti che cede accettando il contratto con YouTube). Altrettanto vero è che viene effettuato un costante monitoraggio della piattaforma da parte dello staff di YouTube (che mette per altro a disposizione una comoda interfaccia per reclamare il copyright dei contenuti trasmessi), e quindi una certa dose di leggerezza è probabilmente imputabile a loro. In ogni caso, la sentenza è ben lontana dall’essere definitiva e soprattutto rappresenterà un importante precedente: non si può infatti ritenere in qualche modo responsabili anche i provider internet, nel caso in cui si possa ritenere responsabile YouTube? L’idea mi fa rabbrividire, ma è la naturale conseguenza di una legislatura antiquata e che fatica a stare al passo con i tempi.

Altra considerazione: 4.643 filmati, 325 ore di trasmissioni, 500.000.000 di euro di danni. A fare un rapido conto, viene fuori la bellezza di oltre 1.500.000 euro di danni per ora di trasmissione (stica**i!!), ma come si può dare torto a Mediaset, che probabilmente quei contenuti li ha anche profumatamente pagati?

Una delle argomentazioni più serie che mi vengono in mente a difesa di YouTube, è indubbiamente quella del ritorno che la pubblicazione dei video avrà dato a Mediaset. Sebbene non in possesso dei diritti per farlo, gli utenti che hanno caricato i video su YouTube lo hanno indubbiamente fatto con cognizione di causa, scegliendo gli spezzoni più divertenti o interessanti: troviamo così in evidenza, ad esempio, i video esilaranti di Colorado Café e non estratti dei telegiornali di Emilio Fede. Si tratta di una selezione qualitativa di cui non và sottovalutato il valore, probabilmente però non sufficiente a ripagare Mediaset (e le altre emittenti televisive, tocca sottolinearlo) dei rientri in pubblicità.

L’altra argomentazione interessante, che arriva dritta dritta dal post di Quintarelli, è la più logica: se i filmati si trovano su YouTube, significa che sono già stati trasmessi e quindi non sono più fruibili (fatto salvo replice e ritrasmissioni) da parte dei telespettatori del piccolo schermo, assunto anche il fatto che Mediaset non ha una piattaforma di “tv on demand” paragonabile al servizio offerto in questo frangente da YouTube (ne per altro i diritti di trasmettere alcuni contenuti sul web).
Si tratta dell’ennesima dimostrazione che la televisione è un mezzo sempre più antiquato, incapace di rispondere concretamente alle esigenze dei telespettatori meno “abituali” (coloro che preferiscono trasmissioni con un senso logico compiuto, o semplicemente non hanno tempo da perdere oppure orari balordi).

Non mi trovo invece assolutamente in accordo con coloro che affermano che si tratti di un tentativo di censura. Non è censura richiedere diritti per materiali di cui esiste un proprietario. Sarebbe censura impedire che contenuti creativi vengano inseriti sulla piattaforma, magari perché trattano argomenti poco simpatici a qualcuna delle parti in causa (ogni riferimento è puramente voluto). Si può discutere sulla necessità di rivedere (e profondamente aggiungerei) il meccanismo del copyright (soprattutto gli aspetti legati alle opere derivate, imho), ma questo l’ho già scritto (legge antiquata bla bla bla).

Quello che mi sembra più strano, per contro, è che non si sia ancora trovata una via “pacifica” (un accordo commerciale) tra le due aziende, il quale sarebbe probabilmente di giovamento per entrambe le parti, e consentirebbe agli utenti di continuare a poter fruire dei contenuti della piattaforma YouTube in “pace e serenità”. Che ci sia forse in ballo qualcosa “di più” che una valga di soldi (senza dietrologie, pensavo a “modelli di business”)?

Quali strategie per i big dell’informatica?

iPhone Ogni tanto mi piace fare considerazioni completamente infondate sulla situazione dei grandi colossi dell’informatica, cercando di immaginare la situazione in cui si trovano e come potrebbero strategicamente muoversi in un prossimo futuro, anche alla luce degli avvenimenti che quotidianamente “sconvolgono” il mondo dell’informatica. Ecco i risultati delle mie elucubrazioni più recenti:

  • Microsoft: non si potrebbe non cominciare l’analisi del panorama informatico mondiale se non partendo dal colosso di dimensione maggiore, Microsoft. Con un monopolio de facto per le mani, il più grande problema di Microsoft è quello di continuare a guadagnare abbastanza da mantenere in vita il gigante che rappresenta, con l’enorme difficoltà dell’essere fin troppo dipendente dal mercato: un’azienda infatti che rappresenta di per sé il 90% del mondo dell’informatica, non può non risentire anche della benché minima flessione del mercato. I consumi calano del 2%? Microsoft sta perdendo milioni di dollari. Ecco allora che diviene necessario adottare non solo le vecchie care strategia legate all’obsolescenza programmata (nella quale rientra per altro anche la questione OpenXML), ma anche attaccare frontalmente nuovi mercati (come ad esempio quello del web), già che quello dei sistemi operativi è saturo o in saturazione, dal punto di vista di Microsoft, e le vendite di Vista pesano come macigni.
    Così si spiega quindi l’idea di acquistare Yahoo!: sfruttare una realtà già esistente (benché pagata profumatamente) per acquisire d’un colpo struttura, prestigio, pubblicità e competenze, alla quale aggiungere poi miliardi di investimenti per fare una reale concorrenza al verò protagonista del mondo del web: Google.
  • Google: è il colosso in maggior espansione. Il mondo dell’informatica va sempre più rivolgendosi infatti verso il web, verso l’integrazione tra servizi e device più o meno mobili (il fenomeno del così detto “web2.0” ne è un esempio lampante) ed a Mountain View, da questo punto di vista, non possono che fare scuola: i servizi che Google offre si integrano perfettamente tra di loro (almeno in larga parte) e si continua ad investire pesantemente nell’acquisto di nuove promettenti piattaforme. Per quanto li riguarda, il periodo di espansione non è ancora terminato, e anzi i guadagni aumenteranno nei prossimi anni, con la sempre maggior incidenza della pubblicità online, la possibilità di offire personalizzazioni ai servizi già offerti gratuitamente al grande pubblico e via dicendo.
    Unica nuvola nel serenissimo cielo di Google è l’accordo tra Microsoft e Yahoo!, che potrebbe dare fastidio (non metterli in crisi, giusto una punturina d’insetto). Probabilmente anche per questo motivo Google ha osteggiato in diversi modi la trattativa, senza per altro poter realmente mettere il becco nell’affare: l’antitrust americana infatti non gli perdonerebbe una simile concentrazione di potere. Nel caso in cui la piattaforma Microsoft-Yahoo! dovesse realmente concretizzarsi, Google avrà bisogno di spingere decisamente verso una piattaforma analoga che includa il supporto di un sistema operativo completo: visto l’importante impegno di Google nel supporto e la promozione dell’opensource, viene naturale pensare a Linux (e nella fattispecie ad Ubuntu e Canonical).
  • Yahoo!: da parecchio tempo ormai nell’occhio del ciclone, il grande problema di Yahoo! si chiama indubbiamente Google. Combattere lo strapotere del colosso di Montain View sul campo dei servizi integrati, della ricerca sul web con una piattaforma analoga (seppure costantemente in lieve ritardo tecnologico) è una battaglia persa in partenza, e le cifre parlano chiaro. Tornata sulla bocca di tutti in seguito alla proposta di acquisto da parte di Microsoft (che avrebbe per altro potuto tranquillamente tentare un’OPA ostile), Yahoo! aveva in realtà già ottenuto un significativo risultato stringendo stretti legami di sinergia con un’altro importante player, Apple. Il servizio di push imap suggerito da Apple per l’iPhone 1.0 infatti era quello di Yahoo!, la sincronizzazione della rubrica tra l’iPod Touch e il web si può fare solo tramite il servizio di rubrica di Yahoo!, e in prospettiva altre strade di integrazione simile si vanno profilando (sempre che Apple non decida di mandare tutto a carte quarantotto chiudendo la piattaoforma MobileMe, cosa piuttosto improbabile).
    Indubbiamente grande valore a Yahoo! l’ha dato l’acquisto di Flickr, che le sta dando respiro, ma al situazione non potrà continuare in questo modo a lungo: se vuole sopravvivere, Yahoo! deve essere venduta (o fusa con un’altra realtà di pari prestigio) e sulla scia di questa operazione, si deve pesantemente investire, sia sulla piattaforma pubblicitaria sia sull’innovazione e l’integrazione dei servizi (il calendario di Yahoo! non esporta automaticamente gli eventi “pubblici” verso upcoming.com, vi sembra possibile?).
    Non è da escludere che Google stessa decida di sovvenzionare Yahoo! per scongiurare questa eventualità, magari proponendo semplicemente una sinergia tra le due piattaforme pubblicitarie, che compongono un mercato ancora troppo piccolo per essere oggetto delle attenzioni dell’antitrust…
    Nell’ipotesi invece che la vendita a Microsoft vada alla fine in porto (pare addirittura che da Redmond vengano pressioni affinché ci sia un cambio di cda e si prosegua la trattativa con interlocutori più accondiscedenti), il vero investimento dovrebbe essere quello di una forte (fortissima) integrazione tra il portale online di Yahoo! e il sistema operativo Windows, senza allo stesso tempo bruciare i rapporti esistenti con Apple: solo una piattaforma integrata di queste dimensioni infatti potrebbe seriamente infastidire Google.
  • Apple: è forse uno dei colossi dell’informatica che più mutamenti sta subendo. Da produttrice di computer dotati di sistema operativo, negli ultimi anni si sta trasformando in fornitrice di integrazione, soprattutto grazie ad iTunes e l’avvento del mito dell’iPod prima, dell’iPhone poi. Oggi tenta il colpaccio con l’introduzione della piattaforma MobileMe, che punta proprio ad ottimizzare e rendere concreta l’integrazione tra device mobili, pc e portatili. La strada è quella giusta, le pecche sono dovute essenzialmente all’ignorare piattaforme alternative che invece potrebbero garantire ulteriore successo proprio ad Apple (Linux su tutte) e con la scarsa (per non dire nulla) sinergia con Google, che invece potrebbe svincolare Apple dal rapporto avviato con Yahoo! che potrebbe tentare di monopolizzare questo ambito per tentare una via d’uscita dalla crisi in cui si trova.
  • Nokia: di quelle citate, è indubbiamente l’azienda che ha maggior esperienza per quel che riguarda le device mobili. Famosa per i cellulari, ha recentemente fatto importanti acquisti sul panorama del software libero (acquistando ad esempio Trolltech, o acquistando e proponendosi di rilasciare Symbian), una mossa accorta nel momento in cui il mercato delle device mobili si espande e cambia come non mai. Probabilmente l’iPhone fa paura: le possibilità che offre grazie alla stretta integrazione con il web e con il pc, l’interfaccia ben studiata e concepita, il design accattivante, sono tutti aspetti che i produttori di cellulari (e palmari) non hanno mai saputo accorpare in un unico prodotto, nonostante i vari tentativi, e che invece Apple ha saputo imbroccare al primo serio tentativo. Ora la voragine aperta va riempita: lo spazio c’è ma bisogna muoversi ad occupare gli spazi e Nokia è il candidato ideale per integrarsi insieme a Google e Linux in una piattaforma da contrapporre a quella che potrebbe vedere riunite Apple, Microsoft e Yahoo!

L’obiettivo di questo post, come potete immagianare, è proprio quello di scatenare discussione. Le congetture del tutto infondate riportate qui sopra sono il mero frutto della mia mente malata, ma potrebbero incastrarsi in un ipotetico puzzle, a disposizione di coloro che volessero cogliere qualche spunto per proporre una propria visione…