Archivi tag: web2.0

Sicurezza dei dati “web-2.0”?

Aristocrat via Flickr

Aristocrat via Flickr

Oltre ai problemi legati alla privacy (di cui si è parlato in lungo ed in largo negli ultimi giorni, anche grazie alla risonanza data alla questione “Policy Facebook” e sulla cui questione quindi non spenderò ulteriori parole), il mondo delle web-applications nasconde alcuni ulteriori rischi, di cui siamo forse ancora meno coscenti di quanto non lo siamo in tema di protezione dei nostri dati personali.

Lo spunto me lo dà un post di Nicola Losito sulla fine di Ma.gnolia.com, la piattaforma di Social Bookmarking (analoga a delicious.com): dove sono i nostri dati, e come vengono salvaguardati? Finché riesiedono sul nostro pc, i nostri files, email, bookmarks e tag sono sotto il nostro diretto controllo e soprattutto sotto la nostra diretta responsabilità: spetta evidentemente a noi l’onere di mantenerne una copia di backup, in modo da poterli recuperare in caso di guasti o inavvertite cancellazioni.
Nel momento in cui, però, i nostri dati vanno in remoto, l’onere del backup a chi spetta? E’ vero che i grossi provider di web-applications (Google su tutti) hanno sistemi di storage in grado di gestire senza problemi di alcun genere eventuali guasti ai sistemi, ma ogni volta che sottoscriviamo un servizio online verifichiamo le strutture informatiche che lo sostengono (o ce ne viene in qualche caso data la possibilità)? Non è forse per di più capitato che Google “perdesse” le email di alcuni suoi utenti?

E’ poi vero che possiamo mantenere una copia di backup dei dati che carichiamo online in locale? Una parte significativa dei contenuti che carichiamo online è rappresentata dall’interazione di questi con le piattaforme su cui vengono caricate o gli altri servizi online che vi fanno riferimento; cerco di spiegarmi: qual’è il valore del mio elenco dei miei bookmarks su Delicious.com? In se per se, poco o nulla (ne ho per altro una copia in locale, visto che vengono sistematicamente backuppati e sincronizzati), ma i tag che vi ho assegnato, l’interazione della piattaforma di delicious.com con altre web-application, siano queste Facebook, Friendfeed o altre, queste si che sono informazioni di valore, difficili anche da sottoporre a backup. Lo stesso discorso vale per le foto caricate su Flickr: mantenerne una copia di backup in locale mi permetterà di recuperare le foto, magari i tag (se ho avuto l’accortezza di esportare questi dati da applicativi “avanzati” come F-Spot), ma la geolocalizzazione? I commenti? La parte “sociale” di Flickr?
Tutto questo è ovviamente parte integrante del valore della web-application di turno (e spesso il motivo principale per cui ne facciamo uso) ed è comprensibile che vi sia una certa ritrosia a consentirne l’esportazione (e quindi il backup).

Ancora una volta ci si rende conto di quanto la vera merce di scambio online siano i dati e non direttamente il vil denaro, di quanto non abbiamo ancora maturato una reale percezione della cosa e di quanto (quindi) ci esponiamo al caso e/o alla serietà delle entità con cui ci troviamo a dialogare, spesso a noi sconosciute…

FriendFeed sta sfondando?

La nascita di web applications più o meno sociali, non è certo una novità. Non molto tempo fà, ho scritto (male per altro) di Plurk, l’ennesimo tentativo di spodestare twitter dal trono sul quale i blogger lo hanno posto. Spesso i nuovi social network nascono, fanno “il botto” e poi rapidamente muoiono, tornando nell’oblio da cui sono venuti (portandosi per altro dietro un carico di dati legati alle persone che vi si sono iscritti non sempre privi di valore).

Per FriendFeed invece, nonostante sia piuttosto giovane, le cose sembrano prendere una piega diversa: ha già raccolto l’adesione di numerosissimi esponenti di spicco della “blogopalla”, che ne stanno facendo un uso intensivo (tardando per altro a far nascere polemiche a riguardo, buon segno), rendendolo già piuttosto interessante per un nuovo iscritto.

I motivi del suo (possibile) successo sono diversi, ma quello principale è a mio parere l’approccio, che si discosta nettamente rispetto a molti altri social networks: non più la necessità di registrarsi, inserire montagne di contenuti, linkare “friends”, e poi dover mantenere aggiornato un account di un network che verte su un argomento che se anche scatenasse il nostro entusiasmo, difficilmente troverebbe lo stesso apprezzamento in tutta la folta schiera di amici che abbiamo linkato. In questo modo, infatti, la frequenza di aggiornamento si riduce, l’interesse medio per il social network proporzionalmente viene meno e presto o tardi la “bellissima piattaforma proposta” cade nel dimenticatoio.
FriendFeed propone un approccio diverso (degno una volta tanto di prendere davvero la “certificazione web-2.0”): integrazione ed aggregazione di moltissimi altri servizi già esistenti, consentendo di tenere sotto controllo, in un’unica paginata, tutta la vita “web sociale” che ci circonda, fornendo per altro una serie di funzionalità aggiuntive, quali la possibilità di commentare ed “apprezzare” azioni (di qualsiasi natura) di altri utenti.
Da questo punto di vista, potrebbe assomigliare per certi versi a Google Reader (del qual per altro aggrega le Shared Pages degli utenti), ma con un aspetto più spiccatamente sociale. Ho perfino letto da qualche parte che potrebbe prenderne il posto, anche se questa eventualità mi lascia piuttosto dubbioso: sono molto più propenso a ritenere che lo sprone “sociale” di FriendFeed gioverà a Google Reader, che ha proprio in questo aspetto una carenza piuttosto evidente (soprattutto nel vincolo con l’account Google Talk), facendogli fare un salto in avanti (sia questo nella direzione dell’eliminazione dell’aspetto sociale o del suo potenziamento ed allargamento).

Molto interessante la funzionalità degli “amici immaginari”, che consentono di sostituire un utente non registrato inserendo manualmente i feed e gli account ad esso relativi, in modo da poter sopperire alla sua mancanza sulla piattaforma (pecca, sotto questo punto di vista, nel segnalare la presenza di un account reale che riporta gli stessi dati che vengono inseriti o la possibilità di aggiungere feed ad utenti già esistenti, anche se solo localmente); in un certo senso questa possibilità va contro l’interesse stesso di FriendFeed (al quale gioverebbero invece le registrazioni), ma lo staff deve avere molta fiducia nel nuovo portale, al punto da potersi permettere di attendere un ritorno nel medio termine anziché immediato.

Altro aspetto interessante, è quello di consentire l’allargamento della propria schiera di conoscenze tramite la visualizzazione delle attività degli amici di amici (spesso interessanti tanto quanto gli amici stessi) e l’assoluta mancanza di “punteggi” (che hanno invece fatto in parte la rovina di Plurk).

Inutile dire che non tutte le ciambelle riescono al primo colpo con quattro o cinque buchi, che non è tutto oro ciò che luccica, che si inciampa sempre in qualcosa: la piattaforma attualmente coperta da FriendFeed presenta alcune sensibili pecche, su tutte (almeno personalmente) la mancanza del supporto per Anobii.com.
Ho naturalmente già inviato un suggerimento allo staff in questo senso e mi hanno prontamente (e diplomaticamente) risposto che “terranno conto del suggerimento”. Almeno hanno risposto, ulteriore segno di interesse, apertura e serietà 🙂

Quali strategie per i big dell’informatica?

iPhone Ogni tanto mi piace fare considerazioni completamente infondate sulla situazione dei grandi colossi dell’informatica, cercando di immaginare la situazione in cui si trovano e come potrebbero strategicamente muoversi in un prossimo futuro, anche alla luce degli avvenimenti che quotidianamente “sconvolgono” il mondo dell’informatica. Ecco i risultati delle mie elucubrazioni più recenti:

  • Microsoft: non si potrebbe non cominciare l’analisi del panorama informatico mondiale se non partendo dal colosso di dimensione maggiore, Microsoft. Con un monopolio de facto per le mani, il più grande problema di Microsoft è quello di continuare a guadagnare abbastanza da mantenere in vita il gigante che rappresenta, con l’enorme difficoltà dell’essere fin troppo dipendente dal mercato: un’azienda infatti che rappresenta di per sé il 90% del mondo dell’informatica, non può non risentire anche della benché minima flessione del mercato. I consumi calano del 2%? Microsoft sta perdendo milioni di dollari. Ecco allora che diviene necessario adottare non solo le vecchie care strategia legate all’obsolescenza programmata (nella quale rientra per altro anche la questione OpenXML), ma anche attaccare frontalmente nuovi mercati (come ad esempio quello del web), già che quello dei sistemi operativi è saturo o in saturazione, dal punto di vista di Microsoft, e le vendite di Vista pesano come macigni.
    Così si spiega quindi l’idea di acquistare Yahoo!: sfruttare una realtà già esistente (benché pagata profumatamente) per acquisire d’un colpo struttura, prestigio, pubblicità e competenze, alla quale aggiungere poi miliardi di investimenti per fare una reale concorrenza al verò protagonista del mondo del web: Google.
  • Google: è il colosso in maggior espansione. Il mondo dell’informatica va sempre più rivolgendosi infatti verso il web, verso l’integrazione tra servizi e device più o meno mobili (il fenomeno del così detto “web2.0” ne è un esempio lampante) ed a Mountain View, da questo punto di vista, non possono che fare scuola: i servizi che Google offre si integrano perfettamente tra di loro (almeno in larga parte) e si continua ad investire pesantemente nell’acquisto di nuove promettenti piattaforme. Per quanto li riguarda, il periodo di espansione non è ancora terminato, e anzi i guadagni aumenteranno nei prossimi anni, con la sempre maggior incidenza della pubblicità online, la possibilità di offire personalizzazioni ai servizi già offerti gratuitamente al grande pubblico e via dicendo.
    Unica nuvola nel serenissimo cielo di Google è l’accordo tra Microsoft e Yahoo!, che potrebbe dare fastidio (non metterli in crisi, giusto una punturina d’insetto). Probabilmente anche per questo motivo Google ha osteggiato in diversi modi la trattativa, senza per altro poter realmente mettere il becco nell’affare: l’antitrust americana infatti non gli perdonerebbe una simile concentrazione di potere. Nel caso in cui la piattaforma Microsoft-Yahoo! dovesse realmente concretizzarsi, Google avrà bisogno di spingere decisamente verso una piattaforma analoga che includa il supporto di un sistema operativo completo: visto l’importante impegno di Google nel supporto e la promozione dell’opensource, viene naturale pensare a Linux (e nella fattispecie ad Ubuntu e Canonical).
  • Yahoo!: da parecchio tempo ormai nell’occhio del ciclone, il grande problema di Yahoo! si chiama indubbiamente Google. Combattere lo strapotere del colosso di Montain View sul campo dei servizi integrati, della ricerca sul web con una piattaforma analoga (seppure costantemente in lieve ritardo tecnologico) è una battaglia persa in partenza, e le cifre parlano chiaro. Tornata sulla bocca di tutti in seguito alla proposta di acquisto da parte di Microsoft (che avrebbe per altro potuto tranquillamente tentare un’OPA ostile), Yahoo! aveva in realtà già ottenuto un significativo risultato stringendo stretti legami di sinergia con un’altro importante player, Apple. Il servizio di push imap suggerito da Apple per l’iPhone 1.0 infatti era quello di Yahoo!, la sincronizzazione della rubrica tra l’iPod Touch e il web si può fare solo tramite il servizio di rubrica di Yahoo!, e in prospettiva altre strade di integrazione simile si vanno profilando (sempre che Apple non decida di mandare tutto a carte quarantotto chiudendo la piattaoforma MobileMe, cosa piuttosto improbabile).
    Indubbiamente grande valore a Yahoo! l’ha dato l’acquisto di Flickr, che le sta dando respiro, ma al situazione non potrà continuare in questo modo a lungo: se vuole sopravvivere, Yahoo! deve essere venduta (o fusa con un’altra realtà di pari prestigio) e sulla scia di questa operazione, si deve pesantemente investire, sia sulla piattaforma pubblicitaria sia sull’innovazione e l’integrazione dei servizi (il calendario di Yahoo! non esporta automaticamente gli eventi “pubblici” verso upcoming.com, vi sembra possibile?).
    Non è da escludere che Google stessa decida di sovvenzionare Yahoo! per scongiurare questa eventualità, magari proponendo semplicemente una sinergia tra le due piattaforme pubblicitarie, che compongono un mercato ancora troppo piccolo per essere oggetto delle attenzioni dell’antitrust…
    Nell’ipotesi invece che la vendita a Microsoft vada alla fine in porto (pare addirittura che da Redmond vengano pressioni affinché ci sia un cambio di cda e si prosegua la trattativa con interlocutori più accondiscedenti), il vero investimento dovrebbe essere quello di una forte (fortissima) integrazione tra il portale online di Yahoo! e il sistema operativo Windows, senza allo stesso tempo bruciare i rapporti esistenti con Apple: solo una piattaforma integrata di queste dimensioni infatti potrebbe seriamente infastidire Google.
  • Apple: è forse uno dei colossi dell’informatica che più mutamenti sta subendo. Da produttrice di computer dotati di sistema operativo, negli ultimi anni si sta trasformando in fornitrice di integrazione, soprattutto grazie ad iTunes e l’avvento del mito dell’iPod prima, dell’iPhone poi. Oggi tenta il colpaccio con l’introduzione della piattaforma MobileMe, che punta proprio ad ottimizzare e rendere concreta l’integrazione tra device mobili, pc e portatili. La strada è quella giusta, le pecche sono dovute essenzialmente all’ignorare piattaforme alternative che invece potrebbero garantire ulteriore successo proprio ad Apple (Linux su tutte) e con la scarsa (per non dire nulla) sinergia con Google, che invece potrebbe svincolare Apple dal rapporto avviato con Yahoo! che potrebbe tentare di monopolizzare questo ambito per tentare una via d’uscita dalla crisi in cui si trova.
  • Nokia: di quelle citate, è indubbiamente l’azienda che ha maggior esperienza per quel che riguarda le device mobili. Famosa per i cellulari, ha recentemente fatto importanti acquisti sul panorama del software libero (acquistando ad esempio Trolltech, o acquistando e proponendosi di rilasciare Symbian), una mossa accorta nel momento in cui il mercato delle device mobili si espande e cambia come non mai. Probabilmente l’iPhone fa paura: le possibilità che offre grazie alla stretta integrazione con il web e con il pc, l’interfaccia ben studiata e concepita, il design accattivante, sono tutti aspetti che i produttori di cellulari (e palmari) non hanno mai saputo accorpare in un unico prodotto, nonostante i vari tentativi, e che invece Apple ha saputo imbroccare al primo serio tentativo. Ora la voragine aperta va riempita: lo spazio c’è ma bisogna muoversi ad occupare gli spazi e Nokia è il candidato ideale per integrarsi insieme a Google e Linux in una piattaforma da contrapporre a quella che potrebbe vedere riunite Apple, Microsoft e Yahoo!

L’obiettivo di questo post, come potete immagianare, è proprio quello di scatenare discussione. Le congetture del tutto infondate riportate qui sopra sono il mero frutto della mia mente malata, ma potrebbero incastrarsi in un ipotetico puzzle, a disposizione di coloro che volessero cogliere qualche spunto per proporre una propria visione…

Plurk o Twitter, è questo il dilemma?

il passero ferito -trilussa-I downtime di Twitter degli ultimi tempi (ad oggi non è ancora tornato disponibile il servizio di messaggistica tramite Jabber) ha cominciato nelle ultime ore a sortire i primi effetti, vale a dire il tentativo di trovare “via alternative” al microblogging. La via che si è maggiormente concretizzata, almeno per quel che riguarda “i vertici” della blogopalla  italica è Plurk.
Il funzionamento del nuovo servizio non è dissimile da quello di Twitter, ma l’interfaccia e l’interazione con l’utente lo sono piuttosto pesantemente: quasi interamente basato su Ajax infatti, Plurk consente il tracking di eventuali “thread”, l’aggiornamento automatico della timeline e via dicendo (anche se non ho trovato, paradossalmente, uno strumento di ricerca comodo dei “friends”).

La mia considerazione su questo “nuovo servizio” non è esattamente positiva, per una paio di ragioni che vado ad elencare.

  1. Mi sfugge (tuttora) l’utilità del nanoblogging. Twitter è stato la bandiera di questo genere di comunicazione per molto tempo (e da questo punto di vista Plurk non è differente) e ben viene sintetizzata la sua utilità dalla battuta che formulò qualcuno non troppo tempo fà: “non sei nessuno se non hai mai scritto su twitter di essere al cesso”. La mia impressione è che il nanoblogging rappresenti l’estrema perversione comunicazionale di una certa categoria di blogger. Twitter genera per sua natura una certa involuzione, in quanto mette in comunicazione costante un (seppur ridottamente) ristretto nucleo di persone, escludendo de facto (anche se non volontariamente) gli altri. Mi è capitato svariate volte che qualcuno mi chiedesse “ma come, non hai letto su Twitter?” e di dover trattenere male parole a bruciapelo.
  2. Secondariamente, mi lascia piuttosto perplessa la scelta di Plurk a livello di interfaccia: Twitter con la sua interfaccia estremamente semplice (un campo di testo ed una timeline), forniva una via d’accesso al nanoblogging sorprendentemente efficace. Centoquaranta caratteri, terza persona, invio e il gioco é fatto.
    La complessità e la quantità di funzioni che invece Plurk offre, che potranno forse divertire qualcuno, allontanano paradossalmente l’utente dalla reale utilità del servizio, l’invio del “nanomessaggio”. Ci si perde tra i thread, il selettore della tipologia del messaggio, gli update, la timeline scorrevole e via dicendo, perdendo (secondo me) di vista il contenuto del messaggio da inviare.

Sintetizzando: se non ero convinto dell’utilità di Twitter se non come gioco perverso dei blogger (del quale non nascondo di far, seppur sporadicamente, uso anche io, intendiamoci), lo sono ancora meno di Plurk, che segue secondo me una via sbagliata che conduce all’eccellenza dell’interfaccia a discapito della reale comunicazione.

Mi sbaglierò…

Un paio di novità

dscf1358.jpg Piccole insignificanti modifiche al blog:

  • L’aggiornamento del BlogRoll (ultima parte della colonna di destra di questo blg) avviene ora automaticamente a partire dal mio Google Reader.
    Per chi fosse interessato a fare qualcosa di simile (effettivamente consente di non doversi trasferire il file opml di qua e di la, evitando per altro le duplicazioni), il meccanismo è piuttosto semplice: create un tag che assocerete a tutte le fonti che volete vengano visualizzate, rendete pubblico questo tag e cliccate su relativo link. Nella finestra che si apre, potrete scegliere colori e stile (io ho messo “none” e senza titolo, in modo da gestire poi le cose direttamente con le widget e lo stile di WordPress), e incollate il codice javascript che ne consegue in una Text Widget di WordPress. Ovviamente verranno visualizzate solo le fonti a cui avrete aggiunto il tag appositamente creato.
  • Ho poi aggiunto (sempre alla sidebar) una nuova voce “Articoli suggeriti“, che riporta i primi dieci titoli delle Shared Items del mio Google Reader. Anche in questo caso, la procedura è identica a quella esposta al punto precedente (fatto salvo che non serve creare un nuovo tag, visto che c’è già e si chiama “Shared Items”) e si riallaccia al discorso fatto qualche giorno fà sull’attendibilità delle fonti. Per coloro che volessero eventualmente aggiungere quelle fonti al feed reader, l’url da aggiungere la trovate qui.

Ho l’impressione che la sidebar cominci a diventare un po’ troppo affollata… Vedrò se posso togliere qualcosa (forse il campo di ricerca? :P)

Bisogno di un “autorevole filtraggio”

Sharing Dalla notte dei tempi della rete, il grande problema è la selezione dell’informazione: dalla necessità di reperire l’informazione tra la scarsità di documenti di una biblioteca, si è passati al dover “scremare” l’enorme numero di dati disponibili alla ricerca di un qualcosa di attendibile, affidabile, coerente, corretto.

La versione “meccanica” di questo processo ha portato ai motori di ricerca, che categorizzano e dividono per chiavi i contenuti, organizzandoli. Sta poi all’utente scegliere tra le fonti proposte (e ordinate per pertinenza) quali fonti ritiene maggiormente affidabili e quali meno. Si tratta naturalmente di un processo faticoso, quello di ricerca dell’informazione tra i molti, moltissimi risultati che un motore di ricerca propone, che però fino ad ora ha dato i suoi frutti, facendo la vera fortuna di aziende come Google.

Traslando il concetto al mondo dell’informazione online (blog, articoli, quotidiani), il problema si ripropone tale e quale: ci sono migliaia e migliaia di articoli che quotidianamente vengono postati su ogni argomento, e scegliere tra questi quelli più interessanti e pertinenti diventa un vero e proprio lavoro. Oltretutto, la scrematura degli articoli richiede una specifica competenza sull’argomento trattato, della quale non siamo sempre in possesso, costringendoci quindi a fidarci dell’istinto, spesso fuorviante.
Esperimenti come Digg o Del.icio.us hanno tracciato la via del “numero”: segnalare gli articoli più letti, più cliccati, più visitati, più segnalati. Come potete facilmente immagianare, non si tratta necessariamente di quelli più interessanti e/o autorevoli, anzi: è molto più facile che migliaia di persone segnalino un articolo inutilmente allarmistico piuttosto che un approfondimento tecnico che spieghi la realtà delle cose, fa parte della (pigra) natura umana.

Nasce quindi la necessità di far filtrare la massa di informazioni da un intermediario competente, qualcuno che abbia la cognizione di causa e l’autorevolezza per segnalare gli articoli interssanti scremandoli dalla impressionante massa di informazioni che ogni giorno ci sommerge.

Molti strumenti, sotto questo profilo, sono oggi disponibili, e uno su tutti è quello delle “Shared news” di Google Reader. Coloro che utilizzano Google Reader come aggregatore di feed rss conoscerà già questo servizio: consiste semplicemente nella possibilità di marcare come “condiviso” un certo articolo o una pagina web, grazie al link-javascript introdotto parallelamente all’introduzione della possibilità di aggiungere note ai post condivisi e che vi consente, ovunque sul web, di selezionare uno spezzone di testo e condividerlo tra le “Shared news” del vostro account di Google Reader.

Le “Shared news” (e le relative note, eventualmente) sono poi rese disponibili, a loro volta, tramite un feed RSS, che gli utenti possono nuovamente aggregare. Un conto è dover scorrere, leggere, comprendere e giudicare migliaia di feed, un conto è leggere quelli che vengono segnalati da una fonte autorevole nel campo.

Lo trovo un meccanismo estremamente interessante e con notevoli prospettive: quasi una “nuova fase” del web-2.0.

Un nuovo digital divide

dscf1289.jpg La Rete fa parte ormai della vita di molti di noi. Già il fatto che stiate leggendo queste righe (che sono su un blog, una delle “nuove frontiere” del web), fa di voi degli utenti “avanzati” della rete, appartenenti di un’elite di internauti che sono in grado di sfruttare al massimo le potenzialità che la più grande rete di intercomunicazione mette a disposizione. La mia vita è impregnata dalla rete: registro le trasmissioni televisive con Faucet di Vcast, ho le mie foto su flickr, leggo notizie e mi documento usando l’aggregatore di feed Google Reader, sono connesso ai principali servizi di instant messaging, ho un blog, tengo la mia contabilita su Kiaraservice, ho un profilo lavorativo su LinkedIn e tanto altro ancora. Quando devo cercare un numero di telefono, non sto neppure a cercare la rubrica cartacea (che onestamente non sono più neppure sicuro di avere), ma apro direttamente un browser su Paginebianche.it. Qualcuno potrebbe parlare di “dipendenza da internet” (ed è decisamente una forzatura), ma il punto non è questo.

Il punto è invece, come dicevo, nel fatto che l’accesso culturale a queste risorse è privilegio di una ristrettissima porzione della popolazione. Ancora non è stato risolto il primo stadio del digital divide (ovvero il possesso di uno strumento di comunicazione digitale, un pc) in tutte le regioni (figuriamoci a considerare il problema a livello mondiale), non è stato risolto il secondo stadio (la formazione necessaria alla comprensione ed all’uso elementare di internet) che ecco nascere un terzo livello: l’uso “avanzato” delle risorse disponibili. L’uso di internet per posta elettronica e mera navigazione occasionale, ridotta spesso e volentieri ai soli siti istituzionali e/o di giornali online, è un uso estremamente limitato di internet, equiparabile in qualche modo al saper a mala pena “leggere e scrivere” di cinquant’anni fa.

L’evoluzione della tecnologia e di internet non lascia scampo. La Rete evolve molto più velocemente di quanto la gente sia in grado di comprendere, continuando così a formare classi “incrementali” di ignoranti (nel senso letterale del termine, “coloro che ignorano”), che lentamente vengono tagliati fuori dalle possibilità offerte dall’evoluzione e sostanzialmente senza alcuna speranza di recuperare il “gap”.

Il problema, a mio avviso, è serio e richiede un’intervento forte e strutturale, una presa di coscienza netta da parte della società in toto. Purtroppo poi penso che più di un italiano su 3 vota per Berlusconi e mi dico che abbiamo ben poche speranze… sarò pessimista ma…