Archivi tag: internet

Il web ed i soldi: Mediaset contro YouTube

14.04.2008: sua emittenza vi ha purgato ancora Uno dei grandi temi di discussione delle ultime settimane è stata indubbiamente la questione nata dalla causa per danni intentata da Mediaset contro YouTube (o per meglio dire contro Google, visto che YouTube è di sua proprietà). In effetti con 500 milioni di euro in ballo, da discutere ce ne sarebbe parecchio, ma ho la fortuna di poter affrontare la questione conoscendo una delle persone in causa (Matteo Flora, il consulente di Mediaset in tutta la vicenda) e potendo quindi tentare di avere un punto di vista più neutrale di quanto non sia capitato ad altri.

Il tutto verte sul fatto che YouTube utilizza e trasmette (senza ovviamente pagare i diritti per farlo) migliaia di ore di registrazioni di trasmissioni e materiali vari di proprietà di Mediaset (e di varie altre emittenti del globo terraqueo). Per la legge italiana (e non solo per quella, visto che numerose altre cause analoghe in giro per il mondo sono state già in corso, non ultima quella che vede impegnata l’emittente statunitense Viacom, proprietaria tra le altre di MTV) questo è un reato, in quanto non vengono riconosciuti di diritti d’autore dell’opera in questione.
Tanto per fare un paragone (nemmeno troppo azzardato) è come se un vostro filmato (magari presente proprio su YouTube) venisse preso ed utilizzato, trasmesso, dalle televisioni generaliste (Mediaset, altro esempio nemmeno troppo azzardato) senza che alcun diritto d’autore vi venga riconosciuto (neppure la basilare “Attribuzione” prevista anche dalle Creative Commons). Non è simpatico, no?
E’ capitato molte volte, probabilmente capiterà ancora, ma a qualcuno toccava fare il primo passo per sollevare la questione ed il caso ha voluto che in Italia si trattasse di Mediaset (non per niente il principale attore della televisione privata).

E’ vero, da un lato, che YouTube potrebbe sostenere di aver solamente fornito la piattaforma di storage che ha consentito la trasmissione dei filmati (il cui upload viene effettuato dall’utente registrato, che in questo caso garantisce implicitamente di essere in possesso dei diritti che cede accettando il contratto con YouTube). Altrettanto vero è che viene effettuato un costante monitoraggio della piattaforma da parte dello staff di YouTube (che mette per altro a disposizione una comoda interfaccia per reclamare il copyright dei contenuti trasmessi), e quindi una certa dose di leggerezza è probabilmente imputabile a loro. In ogni caso, la sentenza è ben lontana dall’essere definitiva e soprattutto rappresenterà un importante precedente: non si può infatti ritenere in qualche modo responsabili anche i provider internet, nel caso in cui si possa ritenere responsabile YouTube? L’idea mi fa rabbrividire, ma è la naturale conseguenza di una legislatura antiquata e che fatica a stare al passo con i tempi.

Altra considerazione: 4.643 filmati, 325 ore di trasmissioni, 500.000.000 di euro di danni. A fare un rapido conto, viene fuori la bellezza di oltre 1.500.000 euro di danni per ora di trasmissione (stica**i!!), ma come si può dare torto a Mediaset, che probabilmente quei contenuti li ha anche profumatamente pagati?

Una delle argomentazioni più serie che mi vengono in mente a difesa di YouTube, è indubbiamente quella del ritorno che la pubblicazione dei video avrà dato a Mediaset. Sebbene non in possesso dei diritti per farlo, gli utenti che hanno caricato i video su YouTube lo hanno indubbiamente fatto con cognizione di causa, scegliendo gli spezzoni più divertenti o interessanti: troviamo così in evidenza, ad esempio, i video esilaranti di Colorado Café e non estratti dei telegiornali di Emilio Fede. Si tratta di una selezione qualitativa di cui non và sottovalutato il valore, probabilmente però non sufficiente a ripagare Mediaset (e le altre emittenti televisive, tocca sottolinearlo) dei rientri in pubblicità.

L’altra argomentazione interessante, che arriva dritta dritta dal post di Quintarelli, è la più logica: se i filmati si trovano su YouTube, significa che sono già stati trasmessi e quindi non sono più fruibili (fatto salvo replice e ritrasmissioni) da parte dei telespettatori del piccolo schermo, assunto anche il fatto che Mediaset non ha una piattaforma di “tv on demand” paragonabile al servizio offerto in questo frangente da YouTube (ne per altro i diritti di trasmettere alcuni contenuti sul web).
Si tratta dell’ennesima dimostrazione che la televisione è un mezzo sempre più antiquato, incapace di rispondere concretamente alle esigenze dei telespettatori meno “abituali” (coloro che preferiscono trasmissioni con un senso logico compiuto, o semplicemente non hanno tempo da perdere oppure orari balordi).

Non mi trovo invece assolutamente in accordo con coloro che affermano che si tratti di un tentativo di censura. Non è censura richiedere diritti per materiali di cui esiste un proprietario. Sarebbe censura impedire che contenuti creativi vengano inseriti sulla piattaforma, magari perché trattano argomenti poco simpatici a qualcuna delle parti in causa (ogni riferimento è puramente voluto). Si può discutere sulla necessità di rivedere (e profondamente aggiungerei) il meccanismo del copyright (soprattutto gli aspetti legati alle opere derivate, imho), ma questo l’ho già scritto (legge antiquata bla bla bla).

Quello che mi sembra più strano, per contro, è che non si sia ancora trovata una via “pacifica” (un accordo commerciale) tra le due aziende, il quale sarebbe probabilmente di giovamento per entrambe le parti, e consentirebbe agli utenti di continuare a poter fruire dei contenuti della piattaforma YouTube in “pace e serenità”. Che ci sia forse in ballo qualcosa “di più” che una valga di soldi (senza dietrologie, pensavo a “modelli di business”)?

Continua la corsa di Firefox

IMG_1414.JPG La terza “main release” di Firefox è ormai alle porte, eppure l’ormai matura versione 2.x continua a mietere un notevole successo. Le statistiche di XiTi Monitor dell’ultimo mese portano la penetrazione del browser libero per antonomasia addirittura al 28,8% per l’Europea, con un incremento netto di 4,5 punti percentuale negli ultimi 12 mesi. Un risultato davvero notevole che avvicina il “vecchio continente” al 31,2% dell’Oceania. Impressionante sotto questo profilo l’ulteriore “balzo in avanti” di un punto percentuale della Finlandia, che sfiora così quota 46%!

Nonostante la release di Internet Explorer 7, quindi, il browser proprietario di casa Microsoft continua a perdere inesorabilmente terreno, lasciando sul campo un altro 0,6% su base mensile, che porta a 2,5% la perdita secca in soli sei mesi. Agli altri browser, di fatto, solo le briciole: 3,3% per Opera, 2,3% per Safari. Purtroppo l’Italia, come al solito, si differenzia dalla media, discostandosi abbondantemente (con il suo misero 22,1%, addirittura in calo rispetto a febbraio) dalla media Europea.

L’andazzo è piuttosto interessante, soprattutto dal punto di vista della presa di coscienza, da parte dei webmaster, che i siti web vanno scritti con un occhio agli standard? La mia speranza, naturalmente, è che la release dell’ormai stabile Firefox 3.0 (prevista per giugno) dia ulteriore forza alla “rinconquista del web”…

Un nuovo digital divide

dscf1289.jpg La Rete fa parte ormai della vita di molti di noi. Già il fatto che stiate leggendo queste righe (che sono su un blog, una delle “nuove frontiere” del web), fa di voi degli utenti “avanzati” della rete, appartenenti di un’elite di internauti che sono in grado di sfruttare al massimo le potenzialità che la più grande rete di intercomunicazione mette a disposizione. La mia vita è impregnata dalla rete: registro le trasmissioni televisive con Faucet di Vcast, ho le mie foto su flickr, leggo notizie e mi documento usando l’aggregatore di feed Google Reader, sono connesso ai principali servizi di instant messaging, ho un blog, tengo la mia contabilita su Kiaraservice, ho un profilo lavorativo su LinkedIn e tanto altro ancora. Quando devo cercare un numero di telefono, non sto neppure a cercare la rubrica cartacea (che onestamente non sono più neppure sicuro di avere), ma apro direttamente un browser su Paginebianche.it. Qualcuno potrebbe parlare di “dipendenza da internet” (ed è decisamente una forzatura), ma il punto non è questo.

Il punto è invece, come dicevo, nel fatto che l’accesso culturale a queste risorse è privilegio di una ristrettissima porzione della popolazione. Ancora non è stato risolto il primo stadio del digital divide (ovvero il possesso di uno strumento di comunicazione digitale, un pc) in tutte le regioni (figuriamoci a considerare il problema a livello mondiale), non è stato risolto il secondo stadio (la formazione necessaria alla comprensione ed all’uso elementare di internet) che ecco nascere un terzo livello: l’uso “avanzato” delle risorse disponibili. L’uso di internet per posta elettronica e mera navigazione occasionale, ridotta spesso e volentieri ai soli siti istituzionali e/o di giornali online, è un uso estremamente limitato di internet, equiparabile in qualche modo al saper a mala pena “leggere e scrivere” di cinquant’anni fa.

L’evoluzione della tecnologia e di internet non lascia scampo. La Rete evolve molto più velocemente di quanto la gente sia in grado di comprendere, continuando così a formare classi “incrementali” di ignoranti (nel senso letterale del termine, “coloro che ignorano”), che lentamente vengono tagliati fuori dalle possibilità offerte dall’evoluzione e sostanzialmente senza alcuna speranza di recuperare il “gap”.

Il problema, a mio avviso, è serio e richiede un’intervento forte e strutturale, una presa di coscienza netta da parte della società in toto. Purtroppo poi penso che più di un italiano su 3 vota per Berlusconi e mi dico che abbiamo ben poche speranze… sarò pessimista ma…

Lacrime di coccodrillo

Clemente Mastella

[ Fonte: AGI News ]
“Oggi come oggi, prima di far cadere il governo Prodi, ci penserei sopra due volte, anzi dieci, probabilmente”. Clemente Mastella fa autocritica nell’intervista al contenitore di approfondimento politico, in onda su ‘YouTube’, di Klaus Davi.

L’onorevole Mastella sembra ora fare retromarcia: prima di far cadere (oggi) il governo Prodi, ci penserebbe due, tre, dieci volte. Tralasciando i sospetti che questa dichiarazione fà (ri)nascere, alla luce del rifiuto che il partito “Popolo delle Libertà” ha opposto alla coalizione con il politico campano (al contrario di quanto capitato invece con Dini e Scalera, che nel centrodestra hanno trovato degna accoglienza), Mastella dovrà ora prendere atto delle conseguenze del suo gesto, conseguenze che potrebbero durare anche alcuni anni…

“Grazie ad Internet, che e’ un mezzo diretto, senza mediazioni, mi si offre l’occasione per sfatare alcuni luoghi comuni, alcune demonizzazioni che mi riguardano ma che sono sbagliate. Voglio dare un preciso messaggio – prosegue – quando uno va al tappeto come me puo’ soltanto rialzarsi. Sono al tappeto e lentamente, con un po’ di fatica provo a rialzarmi”

Mi fa decisamente piacere questa presa di coscienza da parte di Mastella riguaro internet. Al di la del tentativo di fare il “pulcino bagnato”, Mastella ha ragione: è andato al tappeto (meritatamente a mio avviso) e ora non può che rialzarsi. Cominci con il fare chiarezza a se stesso ed a liberarsi di una serie di questioni (il fatto di prendere uno stipendio da magistrato ed uno da giornalista, oltre a quello come politico), e sfrutti effettivamente la rete per dialogare, capire, avvicinarsi alla gente ed ai suoi bisogni.

Chissà che non trovi in questo senso la sua strada…

E se anche comprassero Yahoo?

Microsoft to buy Yahoo... more flickr identity problems Ma se anche Microsoft riuscisse a comprarsi Yahoo!, che cosa cambierebbe? Il discorso è più che aperto, ed “affrontato” da molti, in queste ore. La mia posizione però è probabilmente un po’ in controtendenza (strano eh? :P), e proprio per questo ci tengo ad esprimerla.

Sostanzialmente non cambierebbe nulla: MS ha già dimostrato (con Live Search) di muoversi piuttosto goffamente nel mondo della rete. C’è molto interesse, ma si tratta di un mondo molto (troppo) diverso da quello nel quale Microsoft è nata e cresciuta, perché possano affrontarlo con gli stessi parametri decisionali: sotto questo fronte, sarà nel loro interessa far si che sia Yahoo! a guidare le danze, forti dell’esperienza di anni di lavoro. Microsoft metterà da parte sua le garanzie strutturali per far si che Yahoo! (le cui rivenute finanziarie non sono state propriamente brillanti, di recente) rimanga in piedi e possa anzi darsi la forza necessaria per un rilancio in grande stile che metta in discussione (sperano quantomeno) lo strapotere di Google.

Sarà un’impresa dura, perché il grande “plus” di Google rispetto ai concorrenti, paradossalmente, non sono i servizi offerti, che in se non sono poi così innovativi o qualitativamente maggiori, ma la grande (enorme) capacità di ideare e di innovare, di catturare l’attenzione con idee nuove, con gli altri a seguire a ruota: perché scegliere un “secondo arrivato”, quando il primo è a mia disposizione? Proprio questo concetto, così lontano dal modello di business che normalmente viene applicato al mondo in cui Microsoft è abituata a muoversi, fa temere: riusciranno ad entrare in questa nuova ottica? Sotto questo profilo, sarà Microsoft a Yahooizzarsi (come diceva giustamente Paolo Attivissimo commentando la notizia), oppure sarà Yahoo! a Microsoftizzarsi?

Solo il tempo potrà dare il verdetto (sempre che l’operazione vada in porto)…

Mi cascano le braccia

virus Quando ieri mattina sono finito di fronte a questo articolo del Corriere della Sera, avevo pensato ad un hoax (non sarebbe certo la prima volta che un giornale ne pubblica uno). Non so se ci sia lo zampino di qualche burlone, ma per qualcuno che di sicurezza informatica qualcosa ne capisce (ma anche chi no, come il sottoscritto), appaiono lampanti una serie di strafalcioni davvero allucinanti. Mi limiterò a quelli principali, per non portare via troppo tempo ai lettori, che sicuramente avranno di meglio.

  1. Non è vero che “non assistiamo da un po’ ad un attacco di un virus informatico su vasta scala” perché è in corso (da anni poi) un altro genere di attacco informatico. Molto più semplicemente, la diffusione dei software antivirus e la disponibilità della banda larga (e quindi di aggiornamenti più pronti) ha fatto si che alle larghe epidemie si sostituiscano epidemie più limitate nella durata (e quindi nella diffusione), ma in numero maggiore.
    Inoltre l’abitudine (seppur poca) degli utenti a distinguere le mail di spam o virus da quelle originali (aiutati sotto questo profilo anche dal perfezionarsi dei sistemi antispam), aiuta ulteriormente la riduzione delle infezioni.
  2. Exploit” in sé non è “il nome della nuova minaccia“. Il bello è che la definizione riportata dalla pagina di Wikipedia (“un exploit è un termine usato in informatica per identificare un metodo che, sfruttando un bug o una vulnerabilità, porta all’acquisizione di privilegi o al denial of service di un computer“) è pure li, copiata ed incollata pari pari in testa all’articolo (terza riga), e invece tre righe dopo il significato di “exploit” cambia, diventando “nome proprio” della minaccia. Il concetto torna in gioco poche righe più tardi, con la frase “il fenomeno exploit ha già infettato oltre 70 milioni di pc nel mondo“: inutile dire che gli exploit (per definizione) non provocano un’infezione, al limite aprono la strada. E’ come dire che “l’aria sta in questi giorni infettando gli italiani, dopo che l’influenza ormai è da archiviare come tipologia di epidemie superata”.
    Alla fine dell’articolo, ovviamente, l’exploit diventa una “nuova tipologia di virus”: camaleontico questo exploit!
  3. Interessante la teoria secondo la quale gli “exploit” rappresentino una “nuova categoria” di attacchi informatici, “che non opera secondo le modalità terroristiche dei virus attivi fino a 4-5 anni fa” (e quelli che abbiamo visto girare fino a ieri, cos’erano?), i quali “distruggevano il contenuto degli hard disk o della posta elettronica o che bloccavano o cancellavano le pagine web di siti celebri” (o, aggiungerei io, più spesso si spedivano in giro per la rete, magari sottoforma di messaggi di posta elettronica composti a partire da quelli esistenti, con evidente perdita di dati sensibili). La domanda sorge spontanea: se non sfruttando degli exploit, come si introducevano quei virus “terroristici” all’interno dei client degli utenti? Con la forza del pensiero o con il teletrasporto?
  4. Molto bella e pittoresca l’immagine dell’exploit Arsenio Lupin che rimane nascosto (dove non si sa) per mesi (in attesa di?), prima di attaccare fulmineo e “rubare tutti i dati sensibili” (come se non ci pensassero già le migliaia di malware che ogni utente windows/internet explorer accumula quotidianamente andandosene in giro per il web).
  5. La drammatica descrizione, poi, dei danni che questo nuovo “tipo di virus” sarebbe in grado di arrecare, è davvero carina: nel caso in cui nel pc non ci siano dati sensibili da cui ricavare denaro (tipo numeri di carte di credito), il virus “corromperà le tradizionali ricerche effettuate sui più noti motori di ricerca , per portare il navigatore in siti già infettati o in siti copia di siti esistenti, dove l’utente ignaro consegna i dati della propria carta di credito convinto magari di fare acquisti in un sito affidabile“. Phishing questo sconosciuto? Eppure è un fenomeno che (almeno i giornalisti chiamati a scrivere di informatica) dovrebbero aver ormai assimilato…

L’impressione, alla fin della fiera (e preso atto delle continue citazioni a Grisoft, AVG, alla sua nuova “beta 8” ed alle funzionalità di Safe Search e Safe Surf che guarda caso proprio questo software incorpora), è che si tratti di uno spudorato tentativo di lancio commerciale tramite un articolo (magari nemmeno voluto) e messo in mano a qualcuno che della questione ha capito poco…

Dal Corriere, onestamente, mi aspettavo qualcosa di più…

La musica “degradata”

16gb ipod touch Mi fa sorridere l’articolo di Repubblica di qualche giorno fa’ (si, lo so, sono sempre più in ritardo, che ci devo fare…) che riporta le dichiarazioni dell’avvocato Monti il quale fa notare come la “nuova legge sul diritto d’autore” prenda una cantonata (rispetto a quella precedente quantomeno) che fa dubitare addirittura che il provvedimento sia voluto:

È consentita la libera pubblicazione attraverso la rete internet, a titolo gratuito, di immagini e musiche a bassa risoluzione o degradate, per uso didattico o scientifico e solo nel caso in cui tale utilizzo non sia a scopo di lucro

L’articolo fa presente come, essendo un mp3 (ma vale anche per i jpeg, ad esempio) un file compresso (in quanto taglia ad esempio le frequenze non o difficilmente udibili dall’orecchio umano) e quindi degradato, questo rientri a tutti gli effetti nei limiti della legge, che attende solo un decreto attuativo per essere applicata. Inutile dire che ci si precipiterà a modificare questo passaggio della legge, soprattutto se al governo dovesse (malauguratamente) finirci il nostro buon Silvio Berlusconi (ma questa è un’altra storia).

Tenendo ben presente che si tratta solo di uno stralcio (e quindi maggiori informazioni potrebbero essere disponibili nelle righe precedenti o successive, che non ne competenze ne voglia ne tempo di leggere) c’è un aspetto che proprio non mi convince: questo stralcio di legge vieta di fatto ai possessori di un’opera coperta da copyright (e quindi qualsiasi opera), di pubblicare il proprio materiale, a titolo gratuito, sul web? Quindi niente Creative Commons (che proprio sui diritti garantiti dal diritto d’autore si basano), niente “pubblicità via mp3 e guadagno con i concerti”? Leggo molti gioire per questo “errore del legislatore”, a me sembra un’altro esempio (ovviamente estrapolando da queste due righe, quindi sicuramente mi sbaglierò) di una legge pensata male e scritta peggio

Inoltre, siamo d’accordo che la libera diffusione delle opere dell’ingegno sia fondamentale per la crescita culturale dell’essere umano. Il mio dubbio però, è sull’attribuzione: se io faccio un lavoro, spendo fatica (un esempio banale: le slides disponibili su questo blog), questa legge consente a chiunque di prenderle e mandarle in giro, senza necessariamente citare la fonte (nonostante sia esplicitamente richiesto dalla licenza Creative Commons ivi applicata). Siamo così convinti che la “libera diffusione”, nel senso di “svincolata da qualsiasi regola” sia un bene, per l’umanità e gli esseri umani? La meritocrazia va quindi a farsi benedire?

D’accordo quanto volete contro i brevetti (di qualsiasi genere siano), ma sul copyright bisogna fare molta attenzione…

Perché non uso OpenDns

opendns.pngQualche giorno fa ero presso la sede di un cliente che utilizza come dns remoti quelli di OpenDns, il noto servizio pubblico di risoluzione nomi di dominio. E’ un servizio che aveva fatto molto scalpore al momento del suo lancio, ormai qualche anno fa’, e che poi è calato nell’ombra che spetta ai servizi che funzionano e non fanno (troppo) scalpore. I vantaggi che in OpenDns vanno promuovendo per i loro servizi sono:

  • L’indipendenza dal provider (ovunque con una sola coppia di indirizzi ip, comodo soprattutto per coloro che, portatile alla mano, “migrano” in giro per il mondo)
  • I servizi aggiuntivi di sicurezza (protezione dal phishing e content/domain filtering)
  • I servizi di correzione degli errori negli url (ad un .og viene sostituito automaticamente .org e via dicendo)
  • L’affidabilità dei loro sistemi, virtualmente “zero-downtime” (se paragonati all’affidabilità media dei nostri provider internet… :/)

Presentato così, il servizio offerto da OpenDns sembrerebbe essere una vera manna dal cielo, soprattutto per gli internauti italiani che proprio con i servizi dns dei provider hanno avuto alcune recenti disavventure (come dimenticare il mitico collasso di un anno fa’…). Eppure, a guardare più in profondità, si scoprono una serie di cose piuttosto fastidiose, problemi che complicano notevolmente la vita agli utenti al punto che, spesso e volentieri (ed è il mio caso) si rinuncia ad usare il servizio. Come tutte le cose belle infatti, esiste un rovescio della medaglia:

  • Il sistema di “correzione degli url” rompe le scatole agli altri servizi che fanno affidamento sullo standard DNS per il loro funzionamento. Correggendo infatti l’url, e soprattutto redirigendo su una propria pagina tutti gli url sbagliati, OpenDns risponde positivamente a tutte le query DNS, indipendentemente che il dominio esista o meno, rendendo impossibile, basandosi sul solo protocollo DNS, capire se tutto funzioni correttamente o meno. Modificare uno standard non è mai una buona idea, ma questo è solo un problema minore che però infastidisce parecchio gli amministratori di sistema, che sono costretti ad un lavoro extra, fosse anche solo il filtrare le risposte che vengono ricevute da quelle che risolvono con gli ip di OpenDns (che magari poi non sarà sempre uno, no?), per far funzionare quegli script che altrimenti si metterebbero in piedi in 10 minuti netti.
  • Se provate a risolvere, http://www.google.com usando OpenDns, vi troverete di fronte ad un risultato particolarmente carino:
    ;; QUESTION SECTION:
    ;www.google.com.                  IN    A
    
    ;; ANSWER SECTION:
    www.google.com.                30 IN    CNAME    google.navigation.opendns.com.
    google.navigation.opendns.com. 30 IN    A        208.69.34.231
    google.navigation.opendns.com. 30 IN    A        208.69.34.230

    L’utente di OpenDns che vuole utilizzare Google (curioso come poi tutti i domini nazionali risolvano allo stesso modo) vengono inviati ad un server di opendns.com che riporta una pagina molto simile a quella del Google originale (quiz del giorno: scovate le differenze) che viene ospitata su questi server. La spiegazione ufficiale (e verosimile, seppure poco condivisibile) la troviamo qui, ma per i più paranoici, farò notare che questo significa dare a OpenDns la possibilità di monitorare tutte le connessioni che portano a Google degli utenti che sfruttano il loro servizio (e sapendo che tra Adsense e Google-Analytics il colosso di Montain View ha una pervasività della rete che si avvicina all’80%, possiamo immaginare che mole di dati, e di quale interesse, si trovi in possesso OpenDns). Leggetevi bene l’informativa sul trattamento di questi dati da parte di OpenDns… Per i meno paranoici, farò banalmente notare come questo riduca il numero di servizi comodamente utilizzabili accedendo alla homepage (reale) di Google, e anche questo potrebbe essere un danno minore, se paragonato agli ottimi servizi offerti gratuitamente.

  • I servizi non sono poi cosi innovativi: Firefox stesso ha un sistema di protezione dal phishing (utilizzando le liste di Google, che con la base di domini sotto il suo controllo ha sicuramente i mezzi per riempirle adeguatamente), di correzione degli url errati (se il dns risponde con un dominio inesistente, Firefox chiede al motore di ricerca di Google di fornirgli un url alternativo che sia simile a quello digitato), ed è possibile fare content filtering usando un’apposita estensione. Tutto questo senza modificare in alcun modo un server dns. E qui è tutta scelta dell’utente, se usare un provider di servizi o un altro, anche a partire dalle sue esigenze, quindi, poco male.
  • La cosa peggiore però, è che in OpenDns sembrano dimenticarsi dei concetti di “nat” (e del fatto che numerosi provider (Fastweb?) e “ip dinamico” per quel che riguarda il loro meraviglioso sistema di content-filtering. Se infatti un utente imposta un filtro per determinati host, OpenDns li applicherà a tutte le richieste provenienti da quell’indirizzo IP, senza curarsi che questo potrebbe essere l’IP di un nat (e quindi mascherare una schiera di utenti piuttosto ampia, parte dei quali vorrebbero magari utilizzare lo stesso servizio OpenDns ma senza quei filtri) o ancora peggio l’ip dinamico di una ADSL, che verrà quindi riassegnato poi ad un altro utente il quale si troverà (se usa OpenDns ben inteso) con dei filtri impostati dei quali non sà nulla (e sfido voi a fare il debug di un problema tipo “a volte certi siti non vanno” e giungere alla conclusione che è OpenDns…).

Ecco quindi brevemente spiegato il perché io continui ad usare dns miei (o del mio provider, se non ho voglia/tempo/capacità di mettere in piedi uno stupido sistema di caching in locale), ed evito di utilizzare i (seppur meravigliosi) servizi di OpenDns.

The Economist: cazzate senza paura…

hax0r your n3twork.Ritenevo “The Economist” una testata giornalistica attendibile. Per questo sono andato a guardarmi il loro articolo sulle “previsioni senza paura che fanno per il 2008.

Partiamo dalla prima delle previsioni: il fatto che internet rallenterà. Tralasciando il fatto che ho già scritto di questa “voce” (e il fatto che venga ripresa come credibile in questo articolo pone seri dubbi sulla sua credibilità), l’autore dell’articolo afferma che il 90% del traffico di internet è composto da spam. Ora, proprio poco tempo fà, un’altra statistica ci diceva che, diversamente, la maggior parte del traffico internet è quello peer-to-peer dei circuiti di file sharing.

Ora, senza voler necessariamente dare per scontata l’affidabilità della statistica proposta da Ipoque (d’altra parte The Economist non cita una fonte che sia una), è mai possibile che ogni volta che ne viene fuori una, discorda con tutte le precedenti? Possibile che non ci sia un riscontro che sia uno?

Il fatto poi che l’autore affermi che “i provider hanno tollerato lo spam finora perché era troppo costosa la lotta allo spam” mi fa pensare che non sappia neppure di cosa sta parlando. Coloro tra i miei lettori che hanno avuto modo di mettere in piedi un server di posta sà quanto sia faticoso riuscirvi, proprio per via dei micidiali controlli che vengono fatti da (alcuni) provider. Purtroppo la maggior parte dello spam arriva da provider consenzienti, e quindi diviene molto difficile lottare efficacemente contro questo fenomeno (nonostante qualche buona idea in questo senso l’avessi sentita tempo addietro).
Devo poi commentare l’analisi del traffico “upstream vs. downstream”, che ci dice che visto che le adsl degli utenti sono asimmetricamente sbilanciate verso il download, allora i canali di upstream dei provider sono quasi inutilizzati? O il fatto che per questo motivo gli spammer trovano il proprio lavoro facilitato (in che modo non è ben chiaro)?
Infine, sempre sul primo punto, non è chiaro quali significative differenze rispetto al 2007 portino a questa drammatica previsione… l’avvento del Nebaztag, di YouTube, Flickr e Facebook, e degli elettrodomestici “connessi”? Non fatemi ridere…

Non sto a commentare le altre previsioni, perché pur non essendo altrettanto “spettacolarmente catastrofiche” sono altrettanto ricche di assuzioni più o meno ingiustificate e fantasiose, e io ho altro da fare, al momento.

Gli scherzi dell’autoapprendimento

dangerousssantas Una curiosa notizia è stata pubblicata qualche giorno fa dal Corriere. Il Babbo Natale virtuale di Microsoft Messenger, uno script con funzionalità di auto-apprendimento, avrebbe cominciato ad usare un linguaggio piuttosto esplicito in determinate situazioni, che The Register ha prontamente segnalato a Microsoft che a sua volta, dopo alcuni tentativi, ha optato per la rimozione del servizio traditore.

La cosa interessante, al di là della stravaganza della notizia, è che questo comportamento era piuttosto prevedibile: conoscendo minimamente il popolo di Internet, come poteva Microsoft pensare che non avrebbero attaccato a parlargli di sesso dopo 10 minuti dal lancio del servizio? Immagino che alcuni filtri fossero stati usati per evitare l’eventualità che Virtual Santa apprendesse automaticamente determinate aree del sapere comune degli umani (soggetto tra l’altro ad un effetto moltiplicatore, in questo genere di applicazioni online), ma dovevano aspettarsi che queste cose sarebbero successe.

Inutile stupirsi ancora degli argomenti che girano in rete: ci sono state fin troppe statistiche a descriverci la situazione. Mi chiedo piuttosto se ci sarà mai una reale via d’uscita da questo “problema”…