Archivi tag: ricerca

Ecopass: tempo di bilanci

Smog Avevo aperto l’anno con qualche post riguardo l’introduzione dell’Ecopass a Milano. Non ho mai nascosto di essere piuttosto critico nei confronti dell’iniziativa del Comune di Milano che a mio parere, oltre a rappresentare una vessazione per i cittadini non-milanesi che nel capoluogo lombardo si recano per lavoro, è tecnicamente miope (per dettagli, rimando al post originale).

Ora, a quasi un anno di distanza, la sperimentazione volge al termine (si concluderà a gennaio 2009) e come ogni esperimento che si rispetti, è necessario verificarne gli effetti ed i risultati, confrontandoli con obiettivi ed aspettative dichiarati.

Cominciamo dalle fonti istituzionali: le notizie che periodicamente il Comune dirama tramite il sito web dedicato all’ecopass, sembrano confortanti: al 30 settembre 2008 infatti risultano 22.000 veicoli in meno ogni giorno, nuove corse di autobus e tram, un incremento nell’uso del trasporto pubblico da parte di ben 40.000 persone, addirittura una significativa riduzione degli incidenti stradali. Dati oltretutto confermati ampiamente dalla relazione sui primi 9 mesi di sperimentazione pubblicata sul sito comunale. A partire da questi dati, la sperimentazione potrebbe sembrare un successo al di là di ogni ragionevole aspettativa, eppure proprio questa nettezza nei dati potrebbe far sorgere qualche dubbio? Curioso anche come vengano sempre fatti raffronti con la media dei 5 anni precedenti e non con i dati dello scorso anno.
Il bollettino di settembre a pagina 13, da questo punto di vista, mostra dei dati che non sono proprio così idilliaci: le rilevazioni delle (tre due) centraline di controllo dell’inquinamento di Milano indicano che i valori di pm10 nell’aria sono incrementati, e non scesi, rispetto a 365 giorni prima, passando rispettivamente da 28 a 32 microgrammi per metro cubo al Verziere e da 35 a 37 in Città Studi, per una media mensile che si incrementa da 33 a 34 microgrammi/metro cubo, invertendo di fatto una tendenza positiva rilevabile confrontando questi dati con quelli delle rilevazioni del 2006. Si riducono invece le concentrazioni in provincia (dati sottostanti) dove per altro l’ecopass non è in funzione (e quindi paradossalmente dovrebbero essere aree soggette a maggior traffico di interscambio). La stessa tendenza è confermata anche dai rapporti di agosto (pagina 7), luglio (pagina 15), giugno (pagina 15)… Giunto a questo punto, sono andato a farmi un bel grafico dei dati delle rilevazioni, confrontando 2007 e 2008 (quelle del 2006 non fanno riferimento alle stesse centraline di rilevazioni, quindi le ho escluse), ed il risultato lo potete vedere nel grafico qui accanto. Si direbbe che dopo un iniziale calo del livello degli inquinanti (dato probabilmente dalla novità dell’ecopass) a metà anno i livello di inquinamento sono tornati pari se non superiori a quelli del 2007.

Qualcuno (Motocivismo.it) si è poi anche preso la briga di andare a prendere i dati parziali degli ultimi 30 giorni direttamente dal sito dell’ARPA e ne ha tracciato un grafico dettagliato, disponibile all’interno del documento di analisi che hanno preparato (che vale davvero la pena di leggersi), che mostra come la tendenza non si sia in alcun modo invertita negli ultimi tempi.

All’efficacia tecnica del provvedimento (messa in dubbio dai dati di cui sopra) oltretutto si aggiunge il problema dei ricavi: durante le prime conferenze stampa, era stato dichiarato di aspettarsi un ricavo economico di circa 24 milioni di euro, ma gli ultimi dati non toccano i 9 milioni di euro ed è difficile immagianare che i mesi di dicembre e gennaio consentano un incasso pari a quello dei 9 mesi precedenti… considerando che il solo costo di gestione del sistema è di 7 milioni di euro, l’unica parte a poter essere tagliata è quella degli investimenti nel trasporto pubblico, come si era largamente previsto a gennaio.

Insomma, alla fine della fiera, a poco meno di 2 mesi dal termine della sperimentazione, il bilancio dell’Ecopass è tutt’altro che positivo. Cosa farà ora il Comune di Milano, secondo il quale si tratterebbe invece di un successo senza precedenti?

Pubblicità

Come affondare la ricerca “dall’interno”

Objetivo 10x Leica La situazione della Ricerca in Italia è a dir poco disperata: è disperata sul lato dei finanziamenti pubblici (irrisori anche rispetto alle medie europee), certamente, ma a volte ci si tira davvero la zappa sui piedi. Questa mattina, andando al lavoro con la radio sintonizzata su Popolare Network, mi trovo ad ascoltare uno spot pubblicitario dell’Università Statale che chiede di dedicar loro il 5-per-mille, che termina come segue:

Lui: Ma questa è pubblicità?
Lei: Ma no, anche questa è ricerca: ricerca di fondi!

La freddura è già di per se di dubbio gusto (anche perché se una pubblicità deve far ridere, onestamente, ricorrerei a qualche esperto del settore…), ma purtroppo manda un messaggio assolutamente controproducente: vogliamo i soldi, i vostri soldi, tutti i soldi. Soprattutto perché poco prima, a domanda “ma poi la ricerca al fanno davvero” ci si milita ad affermare che “la Statale è ai primi posti in Europa”: fatemi capire, viene stilata una classifica annuale sulla base delle prestazioni podistiche dei ricercatori o usiamo parametri più oggettivi?

Naturalmente io non sono un pubblicitario, quindi probabilmente mi sbaglierò e questa si rivelerà “la trovata pubblicitaria del secolo”, ma per quel che mi riguarda non è così che otterranno il mio 5-per-mille

Non hanno ancora capito…

Non hanno ancora capito. Eppure è facile, soprattutto se pretendi di lavorare “nel campo”… e invece, zero: Microsoft non ha ancora capito che “sicurezza di un sistema” e “numero di patch pubblicate” non sono due fattori direttamente proporzionali.
Ancora in questi giorni, è stata pubblicata sul blog di Jeff Jones una ricerca (condotta da un team di Microsoft, ndr) secondo la quale Vista è più sicuro di XP, relativamente al suo primo anno di distribuzione. E fin qui, nulla da obiettare: se non fosse stato questo il risultato, ci sarebbe seriamente da chiedersi che cazzo sono pagati a fare, a Redmond, o no?

La cosa che mi fa girare gli emenicoli, invece, è che la ricerca come al solito non si limita a fare un paragone tra i due sistemi controllati da Microsoft, ma cerca di menare qualche “picconata” alla concorrenza, ricadendo nella solita “figura di m”. Infatti dalla ricerca si evince che Vista (ma anche lo stesso XP) è decisamente più sicura di Red Hat Linux, Ubuntu 6.06LTS nonchè (naturalmente) Apple MacOS X. Tutto questo, basandosi sul matematico conteggio settimanale degli aggiornamenti “di sicurezza” (spero che abbiano almeno filtrato i soli aggiornamenti di sicurezza!).

A dimostrazione che la teoria di Microsoft non sta in piedi, ci pensa Secunia (“indipendente”, magico suono…). Qui troviamo la pagina dedicata alle vulnerabilità trovate in Windows Vista, mentre qui troviamo quella relativa a Ubuntu 6.06 LTS (se volete confrontare i dati anche di Apple MacOS X e RedHat Enterprise Linux 4 WorkStation, li trovate rispettivamente qui e qui).

Cominciamo dal numero di vulnerabilità rilevate. A parte il mese di dicembre (dove evidentemente, durante le feste ed a causa del freddo, gli analisti di sicurezza hanno concentrato i propri sforzi su Vista), le vulnerabilità rilevate su Windows Vista sono effettivamente numericamente inferiori a quelle di Ubuntu. Inutile dire che Ubuntu porta con se una quantità di software non indifferentemente maggiore di quella che si porta dietro Windows Vista: nella ricerca in effetti, si fa riferimento ad un “reduced software set” che tenga conto di questo “dettaglio”, peccato che poi le vulnerabilità conteggiate a Ubuntu 6.06 da Microsoft siano 224 contro le 134 rilevate da Secunia. Tralasciamo e proseguiamo.

Anche la tipologia delle falle rilevate è importante. Ci sono infatti falle che compromettono l’intero sistema, altre che invece possono portare al più al crash di una certa applicazione. Sotto questo profilo, possiamo rilevare che di falle dichiarate “estremamente”, in Ubuntu, non ce ne siano, mentre quelle “molto” critiche siano al 21%. Per Vista invece, di falle “estremamente” critiche, ce ne sono il 6%, al quale si deve aggiungere un 41% di falle “molto critiche”. Certo i numeri non sono dalla parte di Vista, dato che in totale, quel 47% di falle “estremamente e molto” critiche sono numericamente parlando solamente 8 falle, mentre in Ubuntu il 21% di falle “molto” critiche raggiunge le 28 unità.

Potrei dilungarmi ancora sulla possibilità di fruttare o meno da remoto una certa vulnerabilità (questione sulla quale, per inciso, dirò che Vista si comporta sorprendentemente bene), o sull’impatto di queste vulnerabilità sul sistema (aspetto sul quale invece Vista si rivela piuttosto sensibile), ma non lo farò così in dettaglio. Infatti, falle o non falle, pericolose o meno, alla fine il succo del discorso è che, a prescindere dal numero degli aggiornamenti, è importante la qualità del lavoro fatto (ossia: la patch risolve o meno il problema?). Sotto questo aspetto, il grafico presentato da Secunia è piuttosto eloquente: in Vista persiste, al 1 gennaio 2008, una vulnerabilità non corrette, mentre in Ubuntu tutte le falle segnalate sono state corrette, che siano più numericamente maggiori o meno di quelle di Vista.

Naturalmente il discorso potrebbe essere allargato anche a Red Hat Linux e Apple MacOS X, ma non era questo il mio intento: volevo semplicemente far vedere come a volte, fare demagogica propaganda per il gusto di farla cercando di affossare i propri avversari, non porta a grandi risultati. Se Jeff si fosse limitato a dire che Vista è più sicuro di XP, avrei anche potuto applaudirlo. Ma il marketing è marketing, e se lui non resiste alla tentazione di spalare palle sul conto degli altri “player” del mercato, io non farò sforzi per resistere alla tentazione di smontare le cose che dice…

PS: ahm… vale far notare che Vista è uscito il 30 gennaio 2007, e quindi è “in corso di diffusione”, mentre Ubuntu 6.06 è uscita (per l’appunto) a metà 2006 e quindi è già decisamente “diffusa”, o è colpire sotto la cintura?

Come si smette di essere precario

calzolari.jpgI ricercatori italiani sono precari. Su questo non c’è molto da discutere: la maggior parte di loro ha un contratto a termine, rinnovato con molta difficoltà di anno in anno, e di questo ho già parlato. Eppure la produzione scientifica e tecnica di questi ricercatori è talmente importante, che a volte finiscono sulla scena mediatica, magari trovando con questa via la tanto sospirata regolarizzazione.

E’ la storia, in qualche modo, di Federico Calzolari, un ricercatore trentasettenne della Scuola Normale di Pisa (simpatico l’aneddoto del conferenziere che, trovandosi di fronte alla domanda “Chi è Federico Calzolari”, avrebbe risposto “Uno dei ragazzi di Maria De Filippi”). Esperto di Grid Computing, Calzolari ha fatto reverse engineering sugli algoritmi di ranking di Google fino a riuscire ad ottenere il primo posto nella classifica mensile italiana delle ricerche, Google Zeitgeist (nel momento in cui scrivo, è ancora visibile). Naturalmente questo non è garanzia di un posto di lavoro, anche se sia Google sia una certa quantità di SEO in giro per il mondo non si faranno certo sfuggire l’occasione di offrire un lavoro a questo brillante ricercatore, un altro cervello prossimamente in fuga dall’Italia (?).

Purtroppo la macchina della ricerca in Italia non è in grado di far risaltare queste menti brillanti, annegandole letteralmente nel mare di mediocrità che in ogni settore è piuttosto normale trovare. Naturalmente a Calzolari vanno i miei più sentiti complimenti, perché quello che ha fatto ha una valenza informatica che va ben oltre le parole che verranno spese commentando il “simpatico risultato”. Rimane la (vana) speranza che questo porti qualche politico a riflettere maggiormente sulla situazione della ricerca in Italia ed a tentare di trovare una via per migliorarla…

Quanto vale il tuo cervello?

vuota ma piena. Di gente “con la testa” (e che testa) ne conosco parecchia. Gente che ha competenze da vendere, carattere e voglia di fare, curiosità, destrezza e soprattutto quell’intuizione che rende… speciali. Dicevo, ne conosco parecchia: penso che l’Italia sia un posto ricco di gente con queste doti (purtroppo se da una parte dai…), per i motivi più disparati (non certo per merito della nostra scuola o delle nostre università, sigh).

Quello che è strano però, è che queste persone valgano pochissimo per la nostra società, per il nostro “sistema paese”, come lo si va chiamando da qualche anno a questa parte. Un interessante articolo del Corriere di oggi riporta qualche cifra sui guadagni e l’impiego dei “cervelloni” nostrani, spinti da anni, come ormai noto, ad aderire alla formula di vita del “cervello in fuga”. L’articolo del Corriere fa particolare riferimento all’aspetto economico della questione (con particolare riferimento al CNR che però è solo un esempio lampante di un malessere diffuso), ma io sono convinto che ci sia dell’altro, e che l’aspetto economico sia solo e solamente una conseguenza di quest’altro.

In Italia non si fa più ricerca. Non la si fà per molte ragioni, legate in un circolo vizioso che taglia letteralmente le gambe a chiunque voglia fare vera ricerca (anche perché ci sarebbe da definire il significato di “ricerca”, eccezion fatta per la “ricerca di base”). Una di queste ragioni è sicuramente quella della precarietà: chi di voi si imbarcherebbe seriamente in un progetto di ricerca, con un orizzonte temporale di quattro o cinque anni, dovendo rinnovare un contratto ogni anno e dovendo per questo fornire “prove concrete” del proprio operato su base annuale? E questo meccanismo coinvolge circa il 50% degli impiegati del CNR, e sicuramente una percentuale molto simile si riscontrerebbe nelle altre realtà che a questo campo si dedicano. Sembra che le istituzioni abbiano un’idea leggermente perversa della ricerca…

Posso portare il concreto esempio di una cara amica, geologa, che da anni si batte per ottenere un livello di vita soddisfacente, facendo ricerca. Quello che ha ottenuto, negli ultimi anni, oltre all’essersi demoralizzata, sono le continue richieste di “consulenze gratuite” di vario genere da parte dell’università.

Purtroppo (come vado blaterando da parecchio tempo ormai) in Italia l’istruzione, la formazione e la ricerca sono visti come costi, perché non portano risultati concreti nel breve termine. Si tratta di un’ottica estremamente miope, che ha già prodotto danni irreparabili al nostro paese i cui danni si cominciano a vedere oggi ed andranno purtroppo peggiorando drammaticamente nei prossimi anni se non verranno presi provvedimenti incisivi (e anche con quelli, non sarà facile mettere una pezza sui danni prodotto da questo atteggiamento).

Non è italiano!

No dannazione. Non è italiano! Non ha alcun senso dire che Mario R. Capecchi, nato a Verona nel 1937, è un italiano. Soprattutto non in riferimento al conseguimento del Nobel per la medicina. Può sentirsi italiano se gli và, Capecchi, ma accademicamente, non lo è!
Capecchi (al quale vanno naturalmente i miei complimenti più vivi, cosi come a tutti gli altri studiosi di questo mondo, più o meno accademici e più o meno premiati) ha vissuto negli Stati Uniti, studiato negli Stati Uniti, lavorato negli Stati Uniti, ricercato negli Stati Uniti, sperimentato negli Stati Uniti, scoperto negli Stati Uniti. In Italia magari non avrebbe neppure potuto, legalmente, lavorare alle scoperte che ora gli sono valse il Nobel. Però ora lo passano per italiano. E invece no! Basta! Non possiamo fare i protezionisti, tagliare i fondi alla ricerca, lasciare tutto in mano ad imprese senza scrupoli, consentire stage gratuiti, corsi universitari mediocri, e poi dire “quanto siamo fighi, abbiamo pure vinto il Nobel”. Troppo comodo!

Proposte per il 22 giugno

Il 22 giugno, presso lo IULM di Milano, si terrà una manifestazione dal titolo “Condividi la Conoscenza“, che si vuole proporre come punto di partenza e riflessione sull’impatto dei “nuovi media” sulla nostra vita, sulla politica e sull’industria.

Chiamato alle armi dal buon Fiorello Cortiana, ho provveduto questa sera a proporre 3 diversi “nodi di riflessione” a mio avviso particolarmente importanti, e sui quali invito tutti a discutere e confrontarsi. Li riporto anche qui, per dare ulteriore risalto alla lodevole iniziativa.

Quantificazione del valore virtuale
Parlando con un caro amico, non molto tempo fa, mi faceva notare quanto fosse difficile investire in “innovazione” e “nuove tecnologie” in Italia, senza avere adeguati fondi alle spalle.

Questo perchè le banche e le società di venture e capitali, nel nostro paese, misurano ancora la bontà di una proposta di investimento in base alle immobilizzazioni materiali che il richiedente può portare. Questo aspetto è stato ulteriormente evidenziato quest’oggi durante un incontro presso il Politecnico di Milano, al quel ho partecipato.

Nel campo della cultura, quali immobilizzazioni possono essere “spese” per ottenere un investimento? Praticamente solo brevetti e diritti d’autore o di “proprietà intellettuale” (detesto questo termine, perdonatemi), che a mio avviso sono solo briglie e freni all’innovazione, alla produzione di cultura ed alla sua diffusione.

E’ assolutamente necessario che si faccia una seria riflessione, e si trovino delle proposte applicabili ed efficaci, per consentire una quantificazione oggettiva della bontà di un investimento in un ambito come quello della cultura, o dell’industria del software, dove le immobilizzazioni materiali non hanno praticamente necessità di esistere.

Pubblico dominio materiale
Quando si parla di “proprietà pubblica”, si pensa sempre ad aquedotti, autostrade, ferrovie. E quando queste proprietà vengono in qualche modo intaccate dalle privatizzazioni, si sentono salire urla di protesta. Tutto corretto, tutto assolutamente condivisibile, ma tutto, strettamente, materiale.

La privatizzazione delle infrastrutture di comunicazione, tanto importanti per la produzione e la diffusione della conoscenza, non arreca forse un danno paragonabile, se non superiore, alla privatizzazione di acquedotti, autostrade e ferrovie?

Come può una rete di larga banda (ma anche una rete di fonia, o la semplice proprietà ed efficienza di una emittente televisiva statale di qualità) che si confronta con mere logiche di profitto, senza tener conto di quelle che sono le esigenze culturali dei cittadini?

Bisogna che si prenda coscenza che l’infrastruttura di rete e (tele)comuncazione del nostro paese è un bene primario per la stessa economia italiana, e come tale, va difesa e rigidamente controllata.
La rete internet italiana non può essere in mano ad un monopolista (in palese conflitto di interessi, tra l’altro) come Telecom, i cui disservizi sono ormai divenuti barzellette fuori dai confini del nostro paese.

Riduzione del Digital Divide
Il termine “digital divide” purtroppo viene usato in modo piuttosto variegato, quindi la riduzione dello stesso è qualcosa di poco tangibile.
In questo caso, per “digital divide” intendo il divario culturale che impedisce a tutti i cittadini di fruire liberamente dell’innovazione (altro termine abusato, a mio avviso), di fatto creando cittadini di serie A e cittadini di serie B, e contribuendo quotidianamente ad ingigantire questo divario.

A mio avviso sarebbe necessario riflettere su quali ragionevoli proposte possano essere avanzate per combattere efficacemente questo problema.

Un punto da tenere presente è che piu che stimolare un’offerta (formativa?) che già per altro esiste, anche in maniera alquanto diffusa, e prima ancora di trovare i criteri economico/fiscali atti a spingere questa “riduzione”, è importante comprendere che va stimolata la richiesta stessa, rendere i cittadini stessi partecipi di questo processo, perchè nessun tipo di forzatura, nel campo della conoscenza, è in grado di portare benefici a medio/lungo termine.

Innovazione d’importazione

Sono ormai alcuni anni che si sente parlare di “bisogno di innovazione”, di “necessità di innovare”, in particolare nei discorsi piu o meno elettorali dei nostri politici. Ieri mi chiedevo, alla fin della fiera, il senso di questa benedetta “innovazione” che si va cercando.

Infatti le dichiarazioni sono piuttosto contrastanti: da una parte si sente questa impellente necessità di “innovare”, dall’altra si continua a considerare la formazione un puro costo, sia in termini di tempo, sia in termini prettamente economici. Ecco allora che le aziende italiane cercano di “delocalizzare” i settori di “Ricerca e sviluppo”, che la “Ricerca” nel Bel Paese è appannaggio della sola università, che non si finanziano i dottorati di ricerca, che si spendono barcate di danaro in strutture “di eccellenza” che rimangono chiuse per ristrutturazione mentre raccolgono i fondi (IIT di Genova, la cui sovvenzione è stata patrocinata dall’allora ministro dell’Economia Giulio Tremonti).

Non ci vuole molto ad associare a questo spirito anche la mitica “fuga di cervelli”, che ormai da anni impoverisce drammaticamente il settore della ricerca del Bel Paese, trasferendo quasi tutta l’eccellenza fuori dai confini nazionali, a vantaggio di quegli stati dove si è finalmente capito che è proprio dalla ricerca e dalla formazione che si ottiene quella “innovazione” che tanto serve per il “futuro”.

Ma non è solo colpa dello “stato”, come spesso si ritiene. Anche le aziende considerano la formazione del personale un puro costo nella maggior parte dei casi: basti pensare che Microsoft inserisce la “necessità di formazione” nel “Total Cost of Ownership” che sfrutta per affossare GNU/Linux nella corsa alla fornitura di servizi software (salvo poi ritrattare quando deve vendere Vista e Office 2007, guarda un po’…).

Ma allora, tutta questa “innovazione” di cui si farnetica, più che prodotta, deve essere solo importata? Davvero riteniamo l’Italia un paese di “poeti, santi e navigatori” al punto da considerare inutile il minimo impegno per la Nostra innovazione? Innovazione significa acquistare dagli Stati Uniti o dalla Cina le tecnologie, e limitarci ad adottarle, come pecore?

L’altro giorno, discorrendo piacevolmente con un collega, mi raccontava di come un’impresa che cerchi di valorizzare un progetto, si imbatta immancabilmente con le banche che, per concedere un finanziamento, usano come unico parametro di valutazione le immobilizzazioni che l’azienda detiene: e nel caso di aziende che fanno software? Che magari hanno in mano l’idea rivoluzionaria, e chiedono fondi per buttarsi nel mercato? Niet. Ciccia. Cavoli vostri (e non mi si venga a dire che la soluzione a questo problema sarebbero i brevetti software…)

A tutto questo, con un involontario tempismo da far invidia, presento un appuntamento all’organizzazione del quale ha partecipato anche il sottoscritto: martedi 22 maggio, dalle ore 21:00 presso Villa Ghirlanda a Cinisello Balsamo, Franco Filippazzi parlerà della sua esperienza nell’ambito del progetto ELEA 9003, e della storia di un’azienda che ricerca ed innovazione ne faceva (la Olivetti di Adriano Olivetti) ma che fu letteralmente demolita dopo la sua morte. Un incontro davvero interessante, a cui invito tutti a partecipare.

Chiuso l’inciso, un’ultima considerazione: più passa il tempo, e più mi convinco che quello che realmente manca alla società italiana è l’attribuzione del giusto valore alle competenze, alla conoscenza, alla formazione, perché no, alla ricerca. Cosi, gente, non andremo da nessuna parte…

Motori di ricerca e Privacy

Presso la sede di OpenLabs, esporrò lunedi 26 marzo i risultati della mia “ricerca” relativa a privacy e motori di ricerca, svolta soprattutto analizzando le privacy lines attuali di Google (ma applicabile anche agli altri motori di ricerca) e cercando di vedere le cose con un’ottica d’insieme che troppo spesso tende a sfuggire.

POC: tracking dei risultati di una ricerca tramite immagini

A seguito di una interessante discussione nata sulla quale avevo già detto la mia in precedenza, Carlo Beccaria ha condotto un minimo di indagine (sfruttando curl) e scoperto un paio di cose interessanti sul conto di Google.

Sono già alcune settimane che sto studiando e cercando documentazione in questo campo, ed ho ritenuto interessante condurre due ricerche personali ad ampliamento di quanto scoperto da Carlo.

In particolare ho eseguito richieste (tramite curl) a Google passandogli cookie diversi (uno dei quali mi è stato gentilmente regalato dal buon Vecna :P), o simulando user agent diversi.

La seconda ricerca che ho effettuato è alla base del titolo del post: sviluppare un sistema analogo a quello che sembrerebbe utilizzare Google (secondo la scoperta di Carlo Beccaria) per verificarne l’effettivo funzionamento.

Il frutto di queste ricerche (e della documentazione che sto raccogliendo), sarà presentato all’HANC Meeting del 3 e 4 marzo a Milano, e successivamente riproposto in sede OpenLabs.

Alcune cose però, posso cominciare a dirle già da buon inizio, perchè trattandosi di aspetti prettamente tecnici, non servono approfondimenti ulteriori.

Il quadro che emerge dalla prima ricerca è piuttosto chiaro. Come già mostrato da Carlo Beccaria nel post precedentemente citato, Google include la funzione clk solo quando lo User-Agent è Internet Explorer. Questo avviene indipendentemente dalla piattaforma (ho provato a simulare sia una piattaforma MacOSX che una piattaforma Windows Vista e Windows Media Center, e la funzione è sempre presente).

La stessa funzione però. non viene inclusa in tutti gli altri browser, ed in particolare in Firefox, neppure quando questo si trova su una piattaforma Windows.

Rimane da approfondire la possibilità che l’introduzione dell’estensione Firebug possa in qualche modo scatenare l’introduzione di questa funzione (e quindi del relativo meccanismo di tracking) anche con il browser della Mozilla Foundation.

Se qualcuno avesse informazioni che discordano con quanto qui riportato, è invitato a contattarmi affinchè le ricerche possano svilupparsi ulteriormente in questa direzione..

La seconda parte della ricerca, forse quella piu interessante da questo punto di vista, è l’implementazione pratica di uno script PHP che simulasse in dettaglio quando fatto da Google, comprensivo di un meccanismo di tracing delle query.

Lo script che trovate qui (sorgente), non fa altro che impostare un cookie (a meno che questo non sia già stato impostato in una precedente query), di validità simile a quella del cookie di Google. A fronte della query, viene scatenato l’inserimento di questa all’interno del database, e vengono mostrati dei fittizzi risultati.

Ognuno di questi risultati riporta una funzione (qq) di fatto simile alla clk di Google, ma scremata di una serie di informazioni, al fine di semplificarne la comprensione. Questa funzione, associata all’evento OnMouseDown, scatena la richiesta di un’immagine inesistente da parte del client, e mentre questi si dirige sul link selezionato, questa richiesta (corredata di id e numero di riga) viene memorizzata nel database, prima di restituire un errore 204 (empty content).

Con un secondo script ( sorgente) preparato ad-hoc, ho reso possibile guardare nel database (le qui specifiche sono qui), in modo che ognuno di voi possa verificare l’effettivo funzionamento del meccanismo.