Archivi tag: rss

Bisogno di un “autorevole filtraggio”

Sharing Dalla notte dei tempi della rete, il grande problema è la selezione dell’informazione: dalla necessità di reperire l’informazione tra la scarsità di documenti di una biblioteca, si è passati al dover “scremare” l’enorme numero di dati disponibili alla ricerca di un qualcosa di attendibile, affidabile, coerente, corretto.

La versione “meccanica” di questo processo ha portato ai motori di ricerca, che categorizzano e dividono per chiavi i contenuti, organizzandoli. Sta poi all’utente scegliere tra le fonti proposte (e ordinate per pertinenza) quali fonti ritiene maggiormente affidabili e quali meno. Si tratta naturalmente di un processo faticoso, quello di ricerca dell’informazione tra i molti, moltissimi risultati che un motore di ricerca propone, che però fino ad ora ha dato i suoi frutti, facendo la vera fortuna di aziende come Google.

Traslando il concetto al mondo dell’informazione online (blog, articoli, quotidiani), il problema si ripropone tale e quale: ci sono migliaia e migliaia di articoli che quotidianamente vengono postati su ogni argomento, e scegliere tra questi quelli più interessanti e pertinenti diventa un vero e proprio lavoro. Oltretutto, la scrematura degli articoli richiede una specifica competenza sull’argomento trattato, della quale non siamo sempre in possesso, costringendoci quindi a fidarci dell’istinto, spesso fuorviante.
Esperimenti come Digg o Del.icio.us hanno tracciato la via del “numero”: segnalare gli articoli più letti, più cliccati, più visitati, più segnalati. Come potete facilmente immagianare, non si tratta necessariamente di quelli più interessanti e/o autorevoli, anzi: è molto più facile che migliaia di persone segnalino un articolo inutilmente allarmistico piuttosto che un approfondimento tecnico che spieghi la realtà delle cose, fa parte della (pigra) natura umana.

Nasce quindi la necessità di far filtrare la massa di informazioni da un intermediario competente, qualcuno che abbia la cognizione di causa e l’autorevolezza per segnalare gli articoli interssanti scremandoli dalla impressionante massa di informazioni che ogni giorno ci sommerge.

Molti strumenti, sotto questo profilo, sono oggi disponibili, e uno su tutti è quello delle “Shared news” di Google Reader. Coloro che utilizzano Google Reader come aggregatore di feed rss conoscerà già questo servizio: consiste semplicemente nella possibilità di marcare come “condiviso” un certo articolo o una pagina web, grazie al link-javascript introdotto parallelamente all’introduzione della possibilità di aggiungere note ai post condivisi e che vi consente, ovunque sul web, di selezionare uno spezzone di testo e condividerlo tra le “Shared news” del vostro account di Google Reader.

Le “Shared news” (e le relative note, eventualmente) sono poi rese disponibili, a loro volta, tramite un feed RSS, che gli utenti possono nuovamente aggregare. Un conto è dover scorrere, leggere, comprendere e giudicare migliaia di feed, un conto è leggere quelli che vengono segnalati da una fonte autorevole nel campo.

Lo trovo un meccanismo estremamente interessante e con notevoli prospettive: quasi una “nuova fase” del web-2.0.

Pubblicità

Dilbert: finalmente il feed ufficiale

dilbert en amérique Era ora! Erano anni che andavo cercando senza successo il feed ufficiale del noto fumetto: gli unici che fino ad oggi fornivano un feed (non ufficiale e anzi pare piuttosto combattuto) sono quei simpaticoni di TapeStry Comics (ai quali d’altra parte mi appoggio anche per i Peanuts, Get Fuzzy e Pearls Before Swine).

A beneficio degli sfortunati visitatori che ancora non conoscessero la strip di Scott Adams, oltre a suggerire loro di cominciare a seguirlo quotidianamente imparando dalle profonde lezioni di vita che trasmette, faccio un breve inciso: Dilbert (da cui il fumetto prende il nome) è la caricatura dell’impiegato, ingegnere e (probabilmente) softwarista, immerso in un mondo popolato di altrettanto ben fatte figure di capi, colleghi, segretarie e via dicendo. Una feroce e divertente caricatura del mondo impiegatizio.

Oggi, in ogni caso, è giunta finalmente la lieta novella: nell’ambito di un restyling completo di Dilbert.com, che pare abbia portato via quasi un anno di lavoro, entra nel mondo del “web2.0”, rendendo ora disponibile un feed ufficiale (ed ad oggi completamente a colori!) del fumetto preferito dagli informatici di tutto il mondo.

In attesa che anche gli altri grandi fumetti online ricevano lo stesso “svecchimento”, buona lettura a tutti…

Microsoft e gli standard

PuzzleNon è la prima volta che mi trovo a parlare di Microsoft e di standard (e probabilmente non sarà l’ultima).

Il motivo, essenzialmente, è che in un mondo sempre più eterogeneo come quello dell’informatica gli standard acquisiscono di giorno in giorno crescente importanza e Microsoft, in quanto leader del mercato dei sistemi operativi, ne trae costante pressione da parte di sviluppatori, utenti, tecnici, aziende e via dicendo.
Da anni a Redmond vanno dichiarando di essere interessati ad aderire agli standard, a consentire la massima interoperabilità, ad aprirsi (per quanto il loro modello di business lo consenta)  su questo fronte. Da altrettanti anni però, i risultati restano piuttosto scarsini. Oddio, effettivamente Internet Explorer 7 rispetta qualche standard in più rispetto a Internet Explorer 6, ma Microsoft avrebbe potuto fare ben altro.

Invece, infischiandosene di dichiarazioni e “promise” fatte, in Microsoft hanno costantemente lottato per mantenere intatta la propria posizione di leader del mercato, agendo su più fronti contemporaneamente: il primo è certamente quello di gestire al meglio la propria base di installato, includendo Windows Media Player, Internet Explorer, Outlook Express e compagnia cantante nelle installazioni di default di Microsoft Windows, nonostante i ripetuti richiami dei garanti per la concorrenza (sopra tutti quello della Commissione Europea). Ogni volta che viene multata (e stavolta la Commissione ci è andata giù pesante) Microsoft dice di essere pentita, di non voler continuare la causa e concede qualcosa, salvo poi continuare bellamente sulla stessa linea.

L’altro fronte, indubbiamente, è quello degli standard internazionali, con particolare attenzione al processo di standardizzazione di OpenXML, il nuovo formato proprietario di Microsoft che è in corso di valutazione da parte dell’ISO attraverso una procedura di FastTrack (solitamente usata per rendere ufficialmente standard dei formati e protocolli che sono già largamente usati e condivisi, a differenza di OpenXML). Microsoft ha fatto letteralmente di tutto pur di ottenere la standardizzazione di OpenXML: ribaltato le specifiche del formato (che non è più neppure compatibile con quello implementato in Microsoft Office 2007), “comprato” voti, sfruttato punti deboli delle procedure dell’ISO (con una notevole dose di inventiva, devo ammettere), la quale alla vigilia del “ballot” finale, si trova nel mezzo di un fuoco incrociato di polemiche dovute alle procedure di voto e di ammissione al voto stesso di numerossisime aziende “microsoft partner” che si sono iscritte (finanziate da Microsoft, sospetto) solo per esprimere il proprio voto positivo su OpenXML, salvo poi ignorare qualsiasi dovere derivante dall’iscrizione ai comitati (ad esempio quello di seguire gli altri processi di standardizzazione in corso) bloccandone di fatto il lavoro (se non c’è il quorum non si va avanti, se nessuno vota non c’è il quorum).

Quest’ultima occasione per parlare di Microsoft e di standard, mi viene dal rilascio della beta della nuova versione di Internet Explorer, la “8”, che dovrebbe garantire un’alta adesione agli standard W3C (la base del web) al punto che il nuovo venuto nella famiglia dei browser di Redmond avrebbe già superato il rinomato Acid 2 Test.

Tralasciando il fatto che un test come l’Acid non può che essere uno degli indicatori da prendere in considerazione (posso scrivere anche io un browser che rispetti tutti i parametri dell’Acid, e nessun altro) e che la compatibilità reale con gli standard del W3C rimane tutta da dimostrare, e tralasciando il fatto che la fretta nel rilascio di Internet Explorer 8 (dovuta essenzialmente all’ormai prossimo rilascio di Firefox 3.0, che oltre a migliorare ulteriormente la già notevole compatibilità con gli standard web, ha recentemente introdotto il sistema PGO che lo renderà ancora più veloce) di certo non aiuterà Microsoft a fare tutti i test necessari per essere realmente sicuri di aderire (almeno in gran parte) agli standard che gli sviluppatori richiedono, c’è un dato significativo da segnalare: l’introduzione di WebSlices, un sistema che consentirebbe di “sottoscrivere contenuti” di una pagina web e ricevere aggiornamenti ogni qual volta questi contenuti cambiano. Non ho dubbi che le WebSlices di Microsoft saranno un’idea geniale ed innovativa, ma un dubbio mi sorge: non esiste già qualcosa di simile, è standard e si chiama RSS?

Di “feed” e contenuti

DopoNatale Quella dei feed “parziali” o “totali” è una annosa questione, affrontata diverse volte e da numerosi punti di vista.
Da lettore di feed rss, sicuramente posso dire di non apprezzare i feed parziali: costringono il lettore a dover necessariamente visitare il sito in questione per poter fruire del contenuto con non poco fastidio. Quando mi capita di trovarmi di fronte ad un comportamento simile, solitamente storco il naso, e non è la prima volta che elimino il feed dall’aggregatore (a meno che non abbia un interesse davvero notevole).

I vantaggi del feed parziale, invece, sono soprattutto un paio: da un lato massimizzano il numero di visite al sito web (che normalmente vengono invece suddivise tra “fruitori del feed” e “visitatori”, con il problema di capire effettivamente quale quota parte di questi due insiemi vadano poi a coincidere) e quindi le rivenute finanziarie, nel caso in cui il sito sia dotato di un qualche tipo di pubblicità. Dall’altro lato, i feed parziali impediscono il “furto” di contenuti, come è capitato diverse volte (anche piuttosto di recente) a questo blog. I contenuti pubblicati con queste pagine sono naturalmente rilasciati sotto licenza Creative Commons, ma la clausula di attribuzione andrebbe rispettata (ad esempio, le foto che da Flickr pubblico a corollario dei miei post, linkano sempre la pagina di colui che ha scattato quella foto).

Come al solito, la linea di confine si pone tra coloro che vogliono usufruire di un “servizio” che trovano comodo, e coloro che di questo servizio cercano di approfittare (molto “italica” come impostazione, eh?).
La mia scelta è stata già ponderata (ed è quella di rimanere con i feed completi), ma la questione deve portare ad analizzare la ben più complicata questione della fruizione dei contenuti di questo mondo (quello di internet), l’aspetto che il “web 2.0” sta cambiando con maggiore radicalità.

I contenuti sono sicuramente “il prodotto” del web: ne possiamo usufruire in vari modi (dai feed rss, dal sito…), ma sono certamente l’aspetto trainante di questo nuovo media.
La trasposizione di questo valore nel mondo reale è nella maggior parte dei casi veicolata da inserzioni pubblicitarie vendute sulle pagine che i contenuti li ospitano: Adsense di Google o quale altro prodotto venga usato, è da li che vengono i ricavi maggiori, e proprio Google, che di questo modello di business è il maggior interprete (se non pioniere), ci dimostra quanto possa diventare proficuo.
La pubblicità online può essere veicolata in modi diversi: quelli fastidiosi (popup, banner rumorosi…) che vanno ad irritare il visitatore e sono sempre più in decrescita, e quelli più sobri (le sobrie inserzioni di Adsense ne sono sicuramente uno dei migliori esempi). Negli anni dei popup però, gli utenti hanno cominciato a sviluppare una certa avversione verso la pubblicità online, e proprio questa avversione ha portato al diffondersi di strumenti quali i popup-blocker o gli anti-banner (AdBlock ad esempio), che hanno conseguenze non irrilevanti sull’economia dei blogger: tutti (o quasi) i mezzi di pubblicità online richiedono infatti il click del visitatore affinché il pubblicatore dei contenuti (il blogger, in questo caso) veda l’ombra di un quattrino. L’uso di strumenti di questo tipo rappresenta un duro attacco a questa forma di business online, che potrebbe riflettersi, con l’evolvere del mondo dei contenuti online, in un rallentamento della crescita in qualità, o comunque nella sua minore accelerazione: se guadagno dai miei post, sono incentivato ad aumentarne la qualità e la frequenza, se invece devo farlo “a gratis”, il tutto assume una dimensione ben diversa.

La percentuale di utenti che cliccano il banner pubblicitario è (e deve essere) un problema dell’inserzionista e del responsabile dei contenuti pubblicati, e non del visitatore che invece viene coccolato da questo nuovo genere di interazione pubblicitaria: sfrutti un servizio e se sei interessato trovi anche della pubblicità, altrimenti sei libero di sfruttare il servizio infischiandotene delle inserzioni pubblicitarie (decisamente diverso rispetto all’invadente messaggio promozionale nella sua accezione televisiva o radiofonica); è però necessaria anche da parte dei visitatori (di noi fruitori del media) una riflessione sulla sostenibilità che “erodiamo” con l’uso di certi strumenti, e delle conseguenze che queste nostre azioni possono avere a medio e lungo termine.

Internet non è più (solo) un gioco, e anche noi fruitori del media giochiamo un ruolo importante nella sua economia. Pensiamoci.

Troppo feed porta all’indigestione

Molti (tutti) di voi sapranno che Firefox gestisce i Feed RSS al suo interno, presentandoli comodamente tra i bookmarks. Splendida funzionalità, utilissima. Al punto che io ho una bellissima cartellina “blogs” tra i bookmarks (subito sotto il link ai quotidiani online per intenderci) che mi consente di tenermi aggiornato sui post che giungono dai blog delle svariate persone che seguo. Come? “Svariate quante”? Uhm… 28 blogger, ai quali si aggiungono 5 blog tecnici (da Blogo.it) e altri 6 feeds di testate di informazione specialistica, 3 di ciclismo, 8 di progetti free-software dei quali seguo lo sviluppo, e quello della comunità HANC. Totale, 51 feeds rss.

E proprio la quantità di feeds che dovrei controllare (un paio di volte al giorno, considerando la frequenza con cui alcuni bloggatori hanno tempo/voglia di postare) mi ha spinto alla necessità di trovare una soluzione. La difficoltà piu grande che ho incontrato infatti, da quando il numero di feeds ha cominciato a crescere a dismisura (soprattutto quello dei blogger), è stato ricordare quale fosse l’ultimo post da me letto/verificato, in modo da capire se ce ne fossero o meno di nuovi.

Ho cercato per diversi giorni un’estensione di firefox che mi consentisse di visualizzare, direttamente tra i bookmarks, un feed aggregato, ordinato temporalmente. Pare non ci sia nulla di simile e l’idea di scrivermela non mi stuzzicava troppo (ora proprio non ho il tempo di farlo, ci sono 9 email importanti, quindi già scremate dalla massa di spam, communiy, mailing-lists, risposte-da-2-minuti, che mi attendono).

La soluzione allora mi è venuta da Gregarius. Installato sul server, aggiunti i link ai feeds, messo su un job di cron che lo tenga aggiornato, ho il mio bel feed aggregato tra i bookmarks. Bello, splendido, nuovo, lucente. Sono proprio contento 🙂 Per ora sono aggregati solo i feeds dei blogger, ma non è detto che non scelga di aggregarmi anche 4 o 5 quotidiani online, i vari progetti OpenSource… o addirittura i feeds di Blogo.it 🙂