Archivi tag: tecnologia

Anche Report ogni tanto inciampa

antenne Report è una delle strasmissioni che stimo maggiormente: giornalismo serio, approfondimenti, inchiesta, domande a bruciapelo quando necessario. Periodicamente però incappano nella ritrasmissione di servizi di altre emittenti, magari molto contestati, che non mancano di sollevare pesanti discussioni anche in Italia. Quando poi si rivelano fuorvianti, la figura che Report incassa è di quelle da far tremare le ginocchia.

Accadde così in occasione del video sull’11 settembre (quello dei complottisti), accade ora con la questione wifi sollevata durante la puntata di questa domenica: il (breve) servizio in questione, uno dei vari mandati in onda durante la serata, è stato realizzato dalla BBC e fa riferimento alla situazione inglese.

La messa in onda del servizio ha sollevato pesanti preoccupazioni relativamente all’uso delle tecnologie di trasmissione radio dei dati per mezzo di onde elettromagnetiche, che sotto certi aspetti (e parlo da tecnico) sono ingiustificate e anzi, rischiano di divenire piuttosto pericolose, ingenerando inutili fobie nella popolazione.

I problemi maggiori del “pezzo” in sé sono piuttosto lampanti: innanzi tutto si finisce con il fare molta confusione tra le varie tipologie di radiazioni elettromagnetiche che pervadono costantemente l’etere (la Terra stessa, per intenderci, ha un suo campo elettromagnetico): c’è una notevole differenza tra le radiazioni emesse da un hot-spot Wifi e da un ripetitore gsm, o umts. L’altro problema è quello legato alla parzialità con cui nel servizio vengono presentati gli “esperti” (uno dei quali vanta il titolo di “disinformatore dell’anno“), che ha costretto la BBC a rivedere le proprie posizioni e fare una puntata correttiva.
Già il tono un po’ troppo allarmistico del servizio avrebbe dovuto far drizzare le orecchie e mettere sull’attenti i telespettatori più pronti, soprattutto se comparato agli altri “pezzi” della giornata, decisamente più pacati e coerenti: il fatto che “non si escludano possibili problemi” si trasforma rapidamente in un “ci sono problemi”, con un passaggio semplicistico che non mi sarei aspettato venisse ripreso in modo così forte da una trasmissione come Report.

Nel merito della questione “onde elettromagnetiche”, un paio di dati oggettivi dovrebbero essere sufficienti a “sminare” il terreno. L’articolo di Paolo Attivissimo, da questo punto di vista, ha la solita lampante chiarezza.

Le conseguenze di un video come questo, purtroppo, rischiano di essere gravi: in preda al panico, i telespettatori sono andati in giro chiedendo la rimozione degli hot-spot wifi (ad esempio è capitato in alcune biblioteche comunali in tutta Italia), generando tra l’altro un danno economico: non che i soldi siano più importanti della salute, ovviamente, ma le posizioni “radicali” di questo genere non giovano certo alla già precaria situazione della nostra economia e del nostro tenore di vita…

ps: scopro ora che il video della parte di puntata dedicata al wifi è stato tolto dal sito di Report. Dobbiamo aspettarci un chiarimento in diretta dalla Gabanelli, questa domenica?

Apple lancia i nuovi MacBook Pro

macbookpro2008.jpgDopo che il lancio del MacBook Air all’ultimo MacWorld aveva scatenato polemiche (anche da parte del sottoscritto), la Apple ha provveduto a rinnovare la gamma dei propri portatili, lanciando un aggiornamento dei MacBook e del nuovo MacBook Pro.

Il MacBook Air era stato una forte provocazione: una device portata al suo estremo limite, a costo di compromessi inaccettabili (non solo nel prezzo), che contava soprattutto sull’appeal del design degli ingegneri di Cupertino per vendere. Con i nuovi MacBook, invece, si torna alla sostanza (ed alla qualità, si direbbe) che caratterizza da sempre le macchine di Apple: non si tratta di un aggiornamento estetico (anche se è stato aggiornato, sotto questo profilo, il MacBook Pro), ma di un intervento sostanzioso a livello di costi e performance (oggettivamente atteso), senza compromettere l’usabilità del sistema (porta ethernet, usb e firewire non mancano).

Tra gli interventi principali, l’aggiornamento della famiglia di processori montati sui portatili, con l’introduzione dei Pentium Penryn al posto dei più anziani Merom (si passa così da 65 a 45 nanometri, e si ottiene parallelamente un risparmio in termini di consumi stimato intorno al 30%).
Sul fronte della features tecnologiche, è da segnalare il touchpad mouse “multitouch”, già introdotto dal MacBook Air, ora disponibile anche per gli altri appartenenti alla famiglia MacBook Pro. Disponibile anche un interessante display LED (solo nella versione da 17″), con risoluzioni che arrivano fino a 1920×1200 pixel: i consumi di questi monitor sono drasticamente più bassi rispetto ai monitor LCD classici, ed in un mondo sempre più attento all’aspetto ambientale, questa è decisamente una mossa azzeccata da parte di Jobs e compagni (in realtà il tema era già stato introdotto al momento del lancio del MacBook Air).

Altra novità importante è quella dei costi, che sono stati finalmente allineati al cambio euro-dollaro: ora è possibile avere un MacBook per 999€ ed un MacBook Pro per 1799€. Opzione resa particolarmente appetibile dall’introduzione dei processori a 2.4Ghz e di dischi fino a 250Gb anche per i MacBook (i MacBook Pro invece arrivano a 2.6Ghz e 300Gb di disco).
Unica pecca (come fa giustamente notare Francesco) è legata alla fascia bassa: il MacBook da 999€ viene ancora venduto con un combo drive, e l’aggiornamento della memoria ram a 4Gb (dai 2Gb previsti) costa la modica cifra di 360€, non proprio irrisoria visti i costi di mercato.

Insomma, alla fine dei conti, un interessante aggiornamento di performance e features che rende maggiormente appetibile il (dovuto) aggiornamento dei prezzi. Il Mac rimane in ogni caso uno “status-symbol” e come tale non si può pretendere che competa sul mercato a livello di rapporto qualità prezzo.

Il diffondersi di OpenID

OpenID logo OpenID non è certo una novità, per gli addetti ai lavori. Il concetto di un’autenticazione centralizzata, accessibile a tutti i servizi web, è una idea che balenava in mente agli informatici già da molti anni, e la semplicità dell’implementazione di OpenID ha rapidamente mietuto successi, fino ad essere in fase di adozione da parte di Google (il che garantisce al progetto una visibilità non indifferente e ne segnala il raggiunto stadio di maturità) e di Yahoo (prevedibile notizia arrivata proprio poche ore fa), oltre che il supporto da parte di una larga fetta di software (spesso liberi) estremamente diffusi sul web, cominciando da Drupal e da WordPress (per ora tramite l’uso di un plugin).
Il grande limite, al momento, di OpenID, è la mancanza di una reale integrazione (per default) nei principali browser. Già Firefox-3.0 però contribuirà a risolvere il problema: il nuovo venuto nella famiglia Mozilla infatti, dovrebbe includere la possibilità di eseguire automaticamente i login nei siti che supportano OpenID, ed autenticarsi automaticamente sul proprio fornitore OpenID al momento dell’apertura del browser.

Il primo, evidente, vantaggio dell’uso di OpenID è l’eliminazione del fastidio del moltiplicarsi degli account su siti diversi, che significano form da riempire, password da ricordare (o la stessa password per tutti i siti, il che non è certo meglio) e da cambiare su tutti i siti (quando decidere che la vostra password singola è troppo datata per essere ancora sicura), autenticazioni da fare innumerevoli volte durante ogni giornata su internet, e via dicendo. Già questo potrebbe essere una giustificazione valida per spingere all’utilizzo di OpenID.

In realtà però, i veri vantaggi di OpenID sono legati a “sicurezza” e “privacy”. Usando OpenID infatti, potrete utilizzare una singola autenticazione per tutti i siti che vorrete visitare, ma potrete scegliere se consentire loro l’autenticazione una sola volta o “a vita”, potrete definire delle liste di siti “fidati”, potrete utilizzare più “personalità” a seconda della fiducia che volete assegnare al sito che state visitando. Tutto questo senza dover inventare password su password, che poi vanno scritte o ricordate.

Inoltre vi sarà possibile definire quali dati cedere al sito in questione, proteggendo la vostra privacy: se vi volete solo autenticare, non sarà necessario fornire la vostra data di nascita, no? Bene, con OpenID potrete impostare il vostro account in modo che, a quel determinato sito, vengano forniti solamente i dati relativi all’autenticazione, e nulla più; di quell’altro sito invece vi fidate, e volete dargli anche la data di nascita in modo che possa inviarvi i bigliettini d’auguri? Tanto meglio, un segno di spunta e ha accesso alla data di nascita, e voi ai vostri bigliettini d’auguri. Cambia un dato? Non dovrete più fare il giro per tutti i siti che visitate abitualmente ad aggiornare i profili: basterà modificare il vostro account OpenID e “magicamente” il nuovo dato sarà disponibile su tutti quei siti ai quali avete dato accesso a quel dato (e solo a quelli!).

Voglia di fare un giro? Recuperate il vostro url OpenID url, e cominciate a navigare 🙂

Ecco la novità: il laptop

macbook-air.pngPosso essere sincero? Sono deluso. Non che il MacBook Air non sia un prodotto valido, o interessante. Ci mancherebbe altro. Solo (forse assuefatto dall’immaginazione degli ingegneri di Apple) mi sarei aspettato qualcosina di più, qualcosa di più distante da quanto già è disponibile sul mercato.

In ogni caso, venendo al dunque, Steve Jobs ha lanciato la novità del 2008, dal palco del suo annuale keynote: il portatile ultrapiatto MacBook Air (del quale si era già ampiamente parlicchiato in giro per la rete nei giorni che hanno preceduto l’apertura del MacWorld 2008). Processore Intel (appositamente miniaturizzato per l’occasione) da 1,5 Ghz (disponibile fino a 1,8 Ghz su richiesta), spessore variabile tra i 2 centimetri a 5 millimetri, display da 13 pollici, webcam, bluetooth, wireless, disco rigido da 80 Gb (su richiesta è disponibile anche allo stato solido, da 64Gb), 2 Gb di ram e un’autonomia che dovrebbe sfiorare le 5 ore, il tutto in meno di un chilo e mezzo di peso, ne fanno un prodotto di altissima tecnologia (ed il prezzo, che si assesta sui 1800$) che sicuramente non tarderà a diventare oggetto del desiderio di molti “tecnologi”, ne più ne meno di quello che fece l’iPhone lo scorso anno (ne sono stati venduti 4 milioni in 6 mesi…).
Voler essere sottili però, comporta dei compromessi. Niente unità cd/dvd ad esempio (è disponibile un’unità superdrive esterna, con un costo aggiuntivo di 99$, ma allora la comodità va a farsi friggere…), niente porte ethernet (in Italia il wireless non è diffuso come negli USA…), una sola USB (mouse o pendrive? Doh…), niente FireWire…
Se poi lo paragoniamo ad un MacBook, le cose diventano imbarazzanti: 650 euro per poco più di un chilo di peso e pochi millimetri di spessore, con un processore più lento e l’assenza di un lettore/masterizzatore cd/dvd integrato… Fosse stato ancora più piccolo, avrebbe avuto un senso, ma così…

Le altre novità non sono in ogni caso di scarso rilievo: film (anche ad alta definizione) disponibili su iTunes e il rilancio della Apple TV (vero flop del 2007 per Cupertino) che proprio dall’interazione con iTunes dovrebbe trarre il suo più grande vantaggio. Sicuramente l’aver già portato a casa l’accordo con 20th Century Fox, Warner Bross, Disney, Universal, Sony Pictures e Paramount, ed il costo irrisorio (tra i 3 ed i 4 dollari a titolo, a seconda della novità) da qualche (seria) garanzia del fatto che un futuro, questa idea, possa averlo.

Amazon vuole (ri)lanciare gli e-book

kindle front Amazon ha annunciato, recentemente, il lancio del suo e-book reader, Kindle. Si tratta di una device dotata di un monitor, in grado di leggere, con una serie di funzionalità aggiuntive (dalla possibilità di marcare le pagine alla connessione wireless con l’Amazon Kindle Store sul quale fare i propri acquisti), libri elettronici (immagino solo quelli in vendita sul negozio online di Amazon).

Quello che viene naturale chiedersi, è quale sia la novità che Amazon propone e che dovrebbe rilanciare il fenomeno degli e-book, che fino ad oggi sono rimasti, per diversi motivi, un fenomeno di nicchia.
Ad oggi, i grandi problemi degli e-book sono stati la mancanza di intuitività dei dispositivi di lettura, le limitazioni che i venditori di e-book impongono (drm), ed il prezzo, problemi che purtroppo non vengono risolti da Kindle.

Una delle peculiarità più importanti che il libro cartaceo detiene rispetto all’ebook, è il contatto manuale con l’oggetto. Mentre un libro, fatto di carta, consente una serie di interazioni dirette ed estremamente intuitive con l’oggetto quali la possibilità di prendervi appunti o di voltare pagina (ovviamente non serve dirlo, sono operazioni manuali che vengono istintive quando manipoliamo qualsiasi oggetto), queste stesse interazioni sono difficilmente replicabili su un dispositivo elettronico: per girare pagina bisogna premere un pulsante, o toccare lo schermo, un’operazione non intuitiva, almeno per coloro che sono abituati ad interagire con libri cartacei. L’intuitività dell’uso della device è un aspetto importante, anche se potrebbe sembrare un pretesto; sicuramente l’introduzione massiccia degli e-book porterebbe ad un “adattamento” da parte del lettore, ma si tratta di un processo anti-intuitivo, che non aiuta il diffondersi del prodotto.

Da questo punto di vista, il dispositivo di lettura presentato da Amazon non porta nessuna particolare innovazione: le dimensioni, il materiale, le funzionalità che questo propone, si possono agevolmente ottenere con un normale computer palmare dotato di un dispositivo di lettura (ma anche di un iPhone o di un iPod Touch). E’ sicuramente interessante l’idea di poter fare acquisti direttamente dal dispositivo sul sito di Amazon, usando una tecnologia wireless che non necessita di hotspot (umts? gsm?) o l’integrazione con altre fonti di testo (giornali, riviste…), ma certo non rendono il prodotto di Amazon innovativo.
Esteticamente parlando, anzi, Kindle non è particolarmente attraente (sembrerebbe un progetto di quasi 10 anni fa) ed è persino sprovvisto (da quel che posso capire dai video dimostrativi) di un banale touch screen, che potrebbe aiutare nel rendere più “intuitivo” l’uso del dispositivo.

Certo le limitazioni oggettive imposte dall’uso di un dispositivo elettronico (innovativo o meno), sarebbero facilmente (e felicemente) accantonate di fronte ad un altrettanto oggettivo miglioramento delle possibilità di fruizione del media: la possibilità di portarsi dietro molti libri o materiali testuali in un unico dispositivo, la possibilità di farne un backup che preservi il libro digitale da eventuali rotture, la possibilità di agire sul libro (bookmarks, citazioni, pieghine o sottolineature) senza danneggiarlo.
Purtroppo fino ad oggi, tutti coloro che hanno cercato di spingere commercialmente sull’e-book, ha applicato ai suoi prodotti un sistema di controllo (Digital Right Management) che ne vincola l’uso a quello che viene previsto dal software utilizzato per la sua fruizione. Paradossalmente, può capitare che un libro che si trova sotto “Public Domain” (perché non più coperto, per legge, da copyright), non possa essere fruito completamente dagli utilizzatori di e-book, in quanto i vincoli inseriti nel software non hanno scadenza (a differenza del copyright). Amazon non si discosta minimamente da questa situazione, come già diverse persone hanno fatto notare: la licenza d’uso di Kindle e degli e-book che possono essere fruiti su di esso impongono una serie di castranti limitazioni al lettore che non potrà “prestare il libro” che ha acquistato, non potrà farne un backup, non potrà probabilmente neppure leggerlo ad alta voce, ne tantomeno fruirne su altri dispositivi differenti dal Kindle, legandolo per sempre al dispositivo acquistato.

Questa impostazione di sfruttamento commerciale si è già dimostrata fallimentare nel mondo della musica, dove il drm sugli mp3, pesantemente spinto da RIAA e case discografiche, viene in questo periodo lentamente lasciato cadere, dopo aver fallito miseramente il suo scopo. A quanto pare, Amazon non ha afferrato il messaggio tra le righe: vessare gli utenti di prodotti digitali, non aiuta a vendere di più.

Ultimo ma non ultimo, viene il discorso del prezzo. Un libro (di qualsiasi genere e qualità), in libreria, ha un costo che oscilla mediamente tra i 5 ed i 25 euro, a seconda della novità del libro o del genere di rilegatura (hardcover o edizioni economiche); non ci sono ulteriori costi necessari per poter fruire del media (a parte forse un buon paio di occhiali per coloro che necessitano di questo ulteriore aiuto alla vista).
Il prezzo di lancio del Kindle è invece di 399$ (al cambio, 269€), per un costo per libro di 9,99$. Non c’è convenienza, oggettivamente, nell’acquistare la versione digitale proposta da Amazon.

Conclusioni

Amazon ha certamente i mezzi economici e la credibilità commerciale per proporre Kindle e sperare che abbia un minimo di successo, creando un mercato a partire da quello (quasi nullo) degli e-book. La chiave di volta, per rientrare almeno nei costi sostenuti, potrebbe essere l’interazione con gli altri produttori di libri digitali, con l’uniformazione dello standard documentale, la possibilità di interagire tra dispositivi diversi. Purtroppo questo non ha funzionato con il drm sulla musica (che ha certamente avuto una maggiore diffusione di quella che è prevedibile in breve tempo per gli e-book), e quindi diffido della possibilità che capiti per i libri digitali.

Gnome non “vede” più le periferiche removibili?

IMGP4662 Se la vostra installazione di Gnome ha improvvisamente smesso di “vedere” le periferiche removibili (chiavette USB, Memory Card e via dicendo) la colpa potrebbe essere di gparted. L’installazione del noto software di partizionamento per la piattaforma GNU/Linux infatti, porta alla creazione di un file di configurazione di HAL che per disabilitare il montaggio automatico delle periferiche removibili, le disabilita in modo generale (quindi anche se non avete impostato l’automount).

Il suggerimento mi arriva da crackedboy, che ci ha sbattuto la testa su una Debian, che (ho letto tramite Persone) riportando la sua “scoperta”: il file gparted-disable-automount.fdi, contenuto nella directory /usr/share/hal/fdi/policy/.

E’ sufficiente rimuovere (o spostare, fate un po’ voi, io l’ho banalmente rimosso) quel file e riavviare il servizio hald, perchè Gnome ricominci a rilevare le devices inserite, e potrete controllarne il comportamento tramite la configurazione disponibile in gnome-volume-manager.

Mi sembra onestamente un comportamento un po’ invasivo da parte di Gparted, di cui tra l’altro fatico a capire le ragioni…