Archivi tag: tecnologia

Appunti sulla lettura

maury.mccown via Flickr

E’ talmente tanto tempo che non scrivo su questo blog che ho il dubbio di non ricordarmi nemmeno più come si fa’. L’occasione però è ghiotta e viene da una interessante puntata di una nota trasmissione di Radio24 dedicata ai libri. In particolare, riflettendo sul tema della lettura, ci sono tre argomenti chiave che sono stati trattati e sui quali mi piacerebbe condividere con voi qualche considerazione:

  • L’imposizione della lettura: chi più chi meno durante il nostro periodo scolastico, siamo stati invogliati alla lettura. Spesso ciò significa banalmente imporre la lettura di un libro (in genere un classico della letteratura) a tutta la classe, per poi leggerne alcune parti durante le lezioni, facendo analisi e commenti sul testo e sulla situazione socio-economo-politica descritta nel romanzo. In questo modo, durante i lunghi anni della mia infanzia, si è riusciti a farmi odiare libri nobili come “I promessi sposi”, o “La divina commedia”: giuro, ho un ricordo pessimo di questi libri, nessuna voglia di rileggerli, poche nozioni in croce di ciò che riguarda trama, personaggi, contenuti notevoli. I libri di cui serbo invece ricordo migliore sono quelli che risalgono all’epoca della fine delle medie, quando un avveduto professore aveva preso l’abitudine di costringerci a leggere, ma senza imporre il titolo: si poteva scegliere un libro a piacere, lo si leggeva e si presentava alla classe un (breve) riassunto della trama, correlato ad una (altrettanto breve) ricerca sui riferimenti sociali, politici ed economici di quanto raccontato, mentre il professore poteva fare domande durante la presentazione e cogliere spunti per approfondire alcuni argomenti piuttosto che altri. Terminato il tutto, si ripartiva da capo, con un nuovo libro (del quale bastava comunicare il titolo, e sulla base del numero di pagine veniva stabilita una data di massima per la presentazione dei risultati della lettura).
    Come si può d’altra parte pensare di far apprezzare ai giovani (e non solo) la lettura, quando si rende il loro approccio ai libri un’imposizione? I libri sono fantasia, sono libertà d’immaginazione, sono un viaggio in territori sconosciuti della mente, della storia, della geografia… E’ più importante una diffusa “conoscenza” della Divina Commedia oppure una diffusa abitudine alla lettura che accompagnerà gli studenti per tutta la vita?
  • Come leggere? Altro argomento chiave, riguarda l’evoluzione dei metodi di vendita e utilizzo dei libri: negli ultimi dieci anni si è cercato a più riprese di lanciare il fenomeno degli eBook. Si è visto un proliferare di formati, device, idee più disparate, va detto generalmente con scarso successo per altrettanti e variegati motivi. Ancora oggi, nonostante la forte pressione esercitata da Amazon e Apple (con Kindle, iPad ed iPhone vari), il fenomeno degli eBook non è realmente decollato, soprattutto non in Italia, dove le case editrici stentano a comprendere quali vantaggi possa portare l’adozione dei formati digitali nella vendita e nella fruizione di libri. Ma in effetti, quali sono i motivi che dovrebbero spingerci a leggere libri in formato digitale anziché nel classico ed amato formato cartaceo?
    1. In primis viene generalmente citato il fattore economico: l’eliminazione della stampa fisica infatti riduce i costi fissi legati alla distribuzione sia essa intesa come creazione del supporto (stampa) sia come trasferimento dello stesso dalla “fabbrica” alla libreria (o biblioteca) di destinazione, che è effettivamente la parte più onerosa del processo. Il prezzo dei libri potrebbe così calare dagli attuali 10-20 euro a libro a 2-5 euro a libro senza intaccare sensibilmente il ritorno economico dell’editore (taglierebbe eccome invece i guadagni di tutti gli intermediari della catena). Mi chiedo ogni volta se si tratti effettivamente di una motivazione reale: gli italiani acquisterebbero davvero più libro se costassero meno? Se si, perché non si fa man bassa allora dei libri usati e/o in ristampa economica, i cui prezzi sono grossomodo allineati a quelli che abbiamo citato?
    2. Altro argomento chiave è la quantità dei libri disponibili: riduzione dei costi di stampa significa aumentare i libri distribuibili, in quanto non ci sarebbero più quantità minime di copie da stampare e da inviare alle librerie. Questo potrebbe spingere gli editori a pubblicare molti libri anche interessanti e che al momento vengono scartati in quanto anti-economici o “troppo di nicchia” per vedere un riscontro effettivo sul mercato. Con il passaggio al digitale e l’azzeramento dei costi di duplicazione, vedremmo crescere esponenzialmente il numero di libri a disposizione per la vendita. Considerando che già oggi, nella sola Italia ci sono più autori che lettori, che senso avrebbe tutto ciò? Ci sarà ancora più confusione di quella che già attualmente vediamo e questo certo non gioverebbe alla qualità media di ciò che si vede pubblicato (già adeguatamente scarsa per quanto mi riguarda). Ci troveremmo grossomodo nella condizione in cui si trova chi vuole cercare informazioni in internet: come fare a destreggiarsi nell’immensa mole di dati a disposizione senza utilizzare un buon motore di ricerca? Che garanzie potremo avere da parte di questa o quella casa editrice, come distingueremo prima dell’acquisto un buon libro da uno scadente?
    3. Certo, ci sarebbero le migliorie tecnologiche: i libri digitali possono consentire di prendere appunti senza rovinarli, esportare e condividere gli appunti stessi tra più lettori, possono vedere l’inserimento di contenuti aggiuntivi (audio e video, ma non solo) ed approfondimenti a richiesta del lettore (sto pensando a quanto più semplice sarebbe la gestione e la fruizione delle note a piè di pagina), ci sarebbe la non trascurabile possibilità di aggiornare i contenuti del libro, correggendo errori di digitazione, o per i libri “da consultazione”, i contenuti stessi. Ci sono ovviamente i vantaggi in termini di dimensione: potremmo portarci dietro, nello spazio di un libro cartaceo, intere biblioteche, con tutti i vantaggi che possono derivarne (io poi continuerei a leggere un libro alla volta, ma poco importa), così come potremmo acquistare libri ovunque ci troviamo (grazie alle reti di comunicazione senza fili come l’UMTS o il WiFi), scaricandoli direttamente sui dispositivi portatili che abbiamo acquistato (e questo porterebbe forse una ventata di freschezza nel languente settore delle “vendite”). Non dobbiamo dimenticare la questione dell’accessibilità: libri digitali significa compatibilità possibile con dispositivi che ne facilitino la fruizione da parte di persone diversamente abili: un libro digitale si può facilmente ascoltare, o leggere attraverso uno schermo braille, senza per questo comportare alcuna modifica al formato originale.
      Per contro, le device attualmente in commercio, per quanto decisamente migliori e più economiche di quelle delle generazioni passate (le batterie cominciano ad avere durate accettabili e la tecnologia degli schermi tattili rende tutto molto più semplice), restano ben lontane dalla fruibilità fisica di un libro cartaceo: insomma, non è la stessa cosa leggere su uno schermo LCD (meglio quelli e-Ink, ma ancora non ci siamo) rispetto ad un foglio di carta, mentre vincoli di marketing ed alcuni accordi commerciali rendono difficile la rapida messa in opera di molti di quei vantaggi di cui andavo farneticando poco fa.
  • Infine, ma non in ordine di importanza, c’è la questione più importante, la domanda che troppo spesso mi viene posta quando si parla di lettura, soprattutto in Italia: “ma perché leggere?“. Anche qui, le risposte sono molte (moltissime) e spesso del tutto personali, ma cercherò di sintetizzarne le tre principali che mi viene in mente:
    1. L’apprendimento: leggere migliora il proprio lessico, la propria padronanza della lingua italiana, l’uso che facciamo di certi concetti e di certi passaggi logici. Leggere aiuta a praticare certi meccanismi linguistici che poi ci scopriremo ad utilizzare in contesti anche molto diversi. Considerando quella che è la conoscenza media della lingua italiana da parte dei nostri concittadini (che rasenta l’analfabetismo, purtroppo), non è un argomento da sottovalutare.
    2. L’arricchimento in termini di emozioni ed esperienze: leggere significa viaggiare, accompagnati dall’autore, in luoghi sconosciuti della mente e della realtà. Significa fare esperienze nuove, vivendole tramite gli occhi dei protagonisti o dell’autore. Significa percorrere sentieri logici e della conoscenza (penso ai saggi) che ci arricchiscono, formano e deformano la nostra mente, il nostro modo di ragionare, il modo stesso in cui conduciamo, analizziamo la vita. Perché negarsi un tale patrimonio?
    3. La fantasia: un libro è un po’ come un film, ma senza i vincoli legati alle immagini, all’audio. Leggere ci permette di farci guidare si dall’autore del libro, ma ci lascia una notevole libertà di interpretazione, di immaginazione (lo dimostra il fatto che lo stesso libro può presentare recensioni anche molto diverse le une dalle altre). Se pensiamo al mondo sempre più grigio e monotono nel quale viviamo

VP8: Apple contro tutti

Google I/O

Pat Hawks via Flickr

Sembrerà male, sarà poco elegante, ma lasciatemelo dire: “l’avevo detto”. Qualche tempo fa’, all’epoca dell’acquisizione di On2 da parte di Google ed in piena battaglia sulla questione dei codec (con Mozilla che all’ora si schierava apertamente a favore di Theora e contro H.264), si discuteva dei possibili sviluppi allo scenario dell’informatica (e di Internet in particolare) che questo passo avrebbe portato. Il maggior valore di On2 infatti (quello che Google voleva verosimilmente acquistare), sta decisamente nel codec VP7 (del quale viene oggi annunciato il successore, VP8 per l’appunto) ed era facilmente prevedibile che Google preparasse una mossa “ad effetto” rilasciando questo codec sotto una licenza libera (nella fattispecie si tratta della licenza BSD) e senza “royalties”, andando così a dichiarare guerra aperta ad Apple (su tutti) ed al codec H.264 all’interno delle specifiche video di HTML5.

Cos’è un codec?

Ok, mi rendo conto, troppe sigle. Urge una spiegazione per chi non mastica pane e bit da mattina a sera. La rappresentazione di immagini su uno schermo (sia questo quello della televisione o quello di un pc, o di un telefonino poco importa), necessita senza eccezione alcuna della definizione di una “rappresentazione informatica” dei dati che si vogliono far apparire. Questa rappresentazione (che può assumere molte, moltissime forme), viene definita “codec“. Per chiarire il concetto di “codec”, facciamo un esempio pratico: ci troviamo nella condizione di voler visualizzare sullo schermo di un pc un’immagine completamente bianca (il caso più semplice); il meccanismo più semplice per rappresentare digitalmente questa immagine è quello di descrivere pixel per pixel i colori che la compongono; assegneremo quindi una scala di colori (dal bianco al nero, passando per tutti i vari colori), partendo da 0 (bianco) ed arrivando, ad esempio, a 255 (nero); dopodiché inseriremo in un file le codifiche di ogni singolo pixel che compone la nostra immagine, uno di fianco all’altro; nel momento in cui (dotandoci di un apposito programma che sia capace di “decodificare” il nostro codec), andremo a visualizzare l’immagine, sarà sufficiente leggere i codici colori e “colorare” i pixel dello schermo sulla base dei colori indicati.
Naturalmente un codec così semplice ha delle limitazioni notevoli

  • prima di tutto non è in grado di mostrare immagini in movimento (potremmo però comporre più rappresentazioni in successione, creando il movimento)
  • secondariamente è molto poco efficace: un’immagine 1920×1080 pixel (il formato del “Full HD” ci costringerà a definire 2.073.600 pixel, anche se fossero tutti bianchi. Un’idea potrebbe essere quella di indicare le sequenze di pixel colorati allo stesso modo in versioni “ridotte”, o assegnare “codici” a sequenze definite e ripetitive di pixel…
  • c’è poi la questione del codice colore: 256 colori sono decisamente pochi per rappresentare con un’immagine di buona qualità. L’aumento del numero dei colori possibili però (e quindi della dimensione della rappresentazione del singolo pixel), fa crescere proporzionalmente la dimensione dell’immagine finale: se posso rappresentare 256 colori con 32bit (e quindi la nostra immagine di cui sopra da 2.073.600 pixel “peserà” 8.2 megabytes), rappresentarne solo 512 (il doppio) necessiterà di 64bit (e quindi arriveremo a 16.4Mb). Una “profondità di colore” che consenta immagini realistiche si aggira intorno ai 16.7 milioni di colori, portando la nostra immagine a dimensioni spropositate (svariate migliaia di gigabytes).

Ecco quindi il perché del fiorire di codec differenti: ottimizzazione delle prestazioni a parità di dimensione della rappresentazione digitale (con algoritmi di codifica più o meno complessi), velocità di codifica e decodifica e via dicendo. Anche la semplicità dell’algoritmo del codec stesso è un fattore molto importante: un algoritmo molto  complesso è difficilmente implementabile “in hardware” (dedicandogli quindi un chip che faccia il lavoro di decodifica), con ripercussioni notevoli sul consumo di batteria (un chip dedicato consuma meno del processore che esegue il software di decodifica) e sulla velocità di decodifica.

Di fronte a tutti questi codec, ci sono come al solito due vie per “standardizzare” l’uso di un codec piuttosto che l’altro: la via “de jure”, che prevede l’inserimento di un ben specifico codec all’interno di un formato, oppure la via “de facto” in cui è l’adozione massiccia (solitamente per via di caratteristiche tecnica inconfutabili) a dettare la standardizzazione del formato. Nel mondo reale, una “specifica” consente spesso di adottare codec diversi all’interno del “contenitore”: la sezione video delle specifiche HTML5 (la nuova versione delle specifiche HTML che consentono di creare pagine web “arricchite” senza bisogno di ricorrere ad “aiuti esterni” come Flash o player dedicati) è definito che si possano usare codec differenti sia per quanto riguarda il canale audio che quello video, il che ha portato fino ad oggi all’adozione di H.264 (codec video) e AAC (codec audio). Purtroppo il formato H.264 è proprietario e (soprattutto) gravato dalla necessità di pagare una “tassa” (royalty) al proprietario del codec stesso, cosa non possibile nel caso di software libero (sviluppato cioè, semplificando, sotto la spinta di una comunità di sviluppatori e non di un’azienda che possa farsi carico del pagamento della royalty stessa).

Dicevamo…

Tornando alla discussione iniziale, la scelta di Google di rendere il successore del codec VP7 (acquisito attraverso l’acquisto On2), detto VP8, libero ed esente da royalty, oltre che prevedibile, apre un nuovo scenario, consentendo l’implementazione delle specifiche HTML5 attraverso codec liberi e royalty-free (affidando la parte audio all’ottimo codec Theora). Purtroppo VP8 è al momento ancora un codec incompleto (e le specifiche sembrano essere ancora poco precise) ed apparentemente coperto da una serie di “software patents” (i brevetti software che in Europa si cerca di scongiurare da svariati anni ma che sono da anni legge negli Stati Uniti) che renderebbero Google un soggetto facilmente attaccabile sul fronte giudiziario. Visto che però a Mountain View non sono degli sprovveduto, ritengo che abbiano in mente tempi e modi per risolvere queste problematiche.

Il motivo per cui questa scelta da parte di Google porta tanto scalpore, è da ricercarsi nella particolare congiuntura in cui il mondo del web si trova oggi:

  • il ruolo sempre più importante del video nel web (ed il particolar modo il fenomeno YouTube, acquisito da Google qualche anno fa) e la scarsa adattabilità di Flash nel ruolo di player più usato (per via sia della parte software, proprietaria e ormai vecchiotta, sia del codec scelto), portano particolare attenzione sulle nuove specifiche HTML5 ed in particolare proprio sul frangente di audio e video.
  • il sempre maggior affermarsi di Firefox come vero antagonista di Internet Explorer sul panorama dei browser, con una percentuale di “market-share” non più trascurabile (oltre il 25%), rende necessaria un’attenzione particolare alle tematiche del software libero, che Google ha sempre ascoltato in modo favorevole.
  • il sempre maggior diffondersi di “device mobili” (iPhone, smartphone, palmari, netbook, tablet e chi più ne ha più ne metta) con caratteristiche computazionali spesso inadatte a fare computazione pesante ma orientati sopratutto alla fruizione di contenuti web, tra cui per l’appunto i video, impone un occhio di riguardo alla tematica dell’implementabilità in hardware.
  • è in corso da parecchio tempo un braccio di ferro tra Adobe (proprietaria di Flash) ed Apple in quanto sugli iPhone non c’è il supporto a Flash. Apple si è giustificata dicendo che il player Flash è un software di scarsa qualità (cosa sulla quale potrebbero trovarmi parzialmente d’accordo, per altro) e che le specifiche del codec sono tali da rendere difficoltosa e costosa l’implementazione in hardware, fondamentale per una maggior durata delle batterie delle device mobili. Apple ha poi presentato, qualche tempo fa, una propria proposta per risolvere il problema, Gianduia (che sarebbe un’alternativa non solo a Flash ma anche a Silverlight, di Microsoft), che non ha però visto alcuna reazione da parte di Google, che evidentemente preparava il lancio di VP8.

Andiamo allora ad analizzare le reazioni dei “player” più importanti di fronte all’annuncio di Google:

  • I proprietari di Flash (Adobe per l’appunto) sono stati i primi a replicare all’annuncio di Google, affermando che il formato VP8 sarà immediatamente supportato dal player Flash. Per Adobe l’orizzonte sembra piuttosto scuro: l’arrivo di HTML5 comporterebbe il progressivo abbandono di Flash come colonna portante dell’animazione sul web, della quale oggi è l’unico indiscusso interprete. L’implementazione di VP8 potrebbe consentire di mantenere un certo respiro per via della “backward compatibiliy” (i siti consentiranno l’accesso ai propri contenuti sia tramite Flash, per i browser più vecchi, sia attraverso HTML5). Andare a braccetto con Google significa inoltre garantirsi l’enorme visibilità legata a YouTube (che costituisce una parte preponderante del video online) e mette Adobe in una posizione dominante, sebbene riflessa.
  • Dopo il sostanziale “flop” di SilverLight e Bing, Microsoft cerca una via d’uscita per tornare ad essere un player importante del mondo del web a prescindere dalle (sempre minori) quote di mercato di Internet Explorer. L’orientamento alla “compatibilità” è già stato dimostrato con la maggior attenzione alle specifiche HTML e CSS delle ultime release del browser “made in Redmond” ed in Microsoft non devono essersi lasciati sfuggire il fatto che se Google va verso VP8, il web va verso VP8. Prendere la palla al balzo era fondamentale e l’annuncio del supporto a VP8 da parte di Internet Explorer 9 non ha tardato (così come non aveva tardato l’annuncio del supporto a H.264 non troppo tempo fa).
  • La posizione di Apple sulla questione VP8 era attesa da giorni e solo questa mattina si è appreso del parere “contrario” di Cupertino. Apple afferma che le royalty su H.264 non sono tali da renderle fastidiose (purtroppo nel mondo del software libero, costose o meno, non si possono pagare perché non c’è un ente preposto al pagamento stesso ed espone critiche tecniche sul formato VP8 stesso, considerato espressamente concepito per il web ed incapace di offrire contenuti di alta qualità, soprattutto se comparato al più prestante e complesso codec MPEG-4.

Si instaura (o meglio, si ravviva) così un braccio di ferro tra il crescente mercato delle device mobili targate “Apple” (numericamente non trascurabile) e quello del software libero, che certo non farà bene ad una crescita “sana” del web. Purtroppo per Apple, in questo caso, la posizione di Google non sarà verosimilmente una posizione “d’attesa”, e “tagliare fuori gli iPhone dai contenuti video di Youtube” potrebbe essere una minaccia in grado di smuovere non poche poltrone, a Cupertino…

Quattro chiacchiere sull’iPad

Apple iPad

Il nuovo Apple iPad

E’ ovviamente la notizia della settimana (scorsa) e puntualmente non mi esento dallo scrivere qualche considerazione, dopo aver riflettuto un po’ (a caldo spesso si dicono cose che a mente fredda risultano anche piuttosto ridicole). Parliamo quindi del nuovo “giocattolo” di Apple, l’iPad. Già definire di cosa si tratti non è banale: qualcuno ha detto che è un iPhone passato sotto la schiacciasassi, qualcuno ha detto che è l’ottava meraviglia del mondo digitale. Io vorrei provare a considerarlo come Apple ha voluto presentato: una via di mezzo tra uno smartphone ed un portatile, che cerca di prendere qualcosa da entrambi riuscendo “meglio” degli ispiratori in alcune funzioni chiave.

Le funzionalità chiave su cui Apple punta il dito, indicandole come i veri “punti di forza” del nuovo iPad sono la navigazione web, la gestione della posta elettronica, il multimedia (foto, musica e video, anche online), i videogiochi e l’eBook reader. Il paragone, durante il keynote di Steve Jobs, è stato fatto con i netbook, a detta del fondatore di Apple “migliori in niente” rispetto ai portatili. Provo allora anche io a confrontare il nuovo dispositivo “made in Cupertino” con quello che il mercato ha da offrire.

Tanto per cominciare, purtroppo per Apple, la nicchia di mercato in cui va ad inserirsi l’iPad è ancora poco definita e dai contorni sfumati. Un netbook è indubbiamente “un portatile economico” (come Steve Jobs l’ha definito, durante la presentazione) e sebbene voglia fare della portabilità la sua arma vincente, i compromessi a cui si deve esporre sono talmente pesanti che spesso diventano un tallone d’achille: per intenderci il mio eeepc è fermo su una mensola da diversi mesi e viene acceso solo occasionalmente, certo non durante il tran-tran della vita quotidiana. Non dubito, intendiamoci, che in un futuro più o meno prossimo device come i tablet-pc (tra i quali possiamo annoverare l’iPad) o i netbook ricaveranno alla fine una loro fascia d’utilizzo; quello che intendo dire è che avendo a disposizione un portatile ed uno smartphone (e in questo settore, indubbiamente l’iPhone ha dettato la direzione), sento decisamente poco la mancanza di una “device di mezzo”.

Paragonandolo al “fratellino minore”, l’iPhone, la vera “innovazione” che l’iPad propone sembrerebbe essere la dimensione dello schermo: l’evoluzione del software del sistema operativo che ne sfrutta al massimo le potenzialità (indubbiamente, le immagini dell’interfaccia utente sono spettacolari) non ne è che una diretta conseguenza dei 9 pollici e rotti di cui potranno godere i suoi utenti.
Inutile dire che il prezzo da pagare (o compromesso che dir si voglia) è quanto mai pesante: l’iPhone mi entra in tasca (per quanto non proprio comodamente), mentre l’iPad avrà bisogno di una custodia per essere trasportato, non si tratta certo di una device “maneggevole”. Per di più, se Apple avesse realmente voluto puntare tutte le sue carte sullo schermo, avrebbe avuto senso portarlo ad una risoluzione “full-hd”, della quale avrebbero giovato in prima istanza proprio le funzionalità “multimediali”, ma indubbiamente anche quelle legate alla piattaforma di gioco.

Della (scarsa) portabilità del nuovo iPad ho già detto, ma vorrei tornarci per un’ulteriore considerazione: così come trovo fastidioso tirare fuori il portatile dallo zaino mentre sono in giro per visitare un sito web o leggere la posta (o leggere un libro, per la differenza che può fare), credo che mi troverei ugualmente a disagio ad estrarre una device delle dimensioni dell’iPad in tram, o al ristorante, forse un po’ meno su lunghi viaggi, ma non rappresentano mediamente una nicchia sufficientemente ampia da essere appetibile; se il target diviene allora quello di una device “casalinga” più comoda e maneggevole di un portatile, ecco che allora la durata della batteria non è più fondamentale: perché non dotare allora l’iPad di un processore più potente in grado magari di far girare una versione customizzata di MacOSX e non un povero sviluppo del software che gira sull’iPhone, con tutte le limitazioni che questo comporta? Si tratta verosimilmente dell’ennesimo compromesso: peso, durate della batteria, (probabilmente) semplicità di sviluppo e (sicuramente) l’attrattiva di poter disporre sulla nuova device del non indifferente parco software che si è creato intorno all’iPhone ed al suo AppStore (sul quale chiaramente Apple ha investito buona parte del keynote).
L’adozione di un sistema operativo “da portatile”, avrebbe tra l’altro consentito di aggirare alcuni (grossi) limiti d’usabilità che possiamo individuare su un iPhone e che sebbene possano essere spiegati su una device “specializzata” come lo smartphone (su cui comunque sono stati a ragione ampiamente criticati), faticano molto di più a trovarla su un tablet-pc: ad esempio l’impossibilità di gestire il multitasking (esserci c’è, solo che l’utente non può gestirlo a piacere, rendendolo sostanzialmente inutile), oppure l’impossibilità di salvare files su disco (come salvo un pdf scaricato via web per poterlo visualizzare offline? :/).

Il prezzo è sostanzialmente allineato con il mercato (cosa non altrettanto vera per l’iPhone all’ora della sua uscita, se ci pensate): sebbene sia più costoso dei più comuni netbook, l’iPad ha dalla sua parte un disco fisso stato solido più efficiente e capiente (e fa la differenza), un sistema operativo “dedicato” in grado di sfruttarne appieno le caratteristiche hardware (essendo quest’ultimo stato sviluppato a braccetto con gli sviluppatori del software). Ancora una volta Apple posiziona il suo prodotto nella fascia medio-alta del mercato, verosimilmente per le logiche di marketing che già sono state più volte evidenziate. Va detto che allo stato attuale delle cose, la concorrenza non ha granché di meglio da offrire, anzi Apple ancora una volta anticipa tutti, proponendo un prodotto che vedrà i primi veri competitor in vendita tra parecchi mesi (si parla di fine anno). Sicuramente va riconosciuta ad Apple la capacità di “guidare” questo mercato (non a caso sono ormai la prima “Mobile Device Company” mondiale in termini di fatturato), dettandone le regole in termini di funzionalità (per le quali spesso è un punto di riferimento, vedere alla voce “interfaccia utente iPhone”).

Sicuramente Apple non ha voluto lanciare un eBook reader: lo sviluppo di iBooks secondo me è stata un’introduzione “dell’ultimo momento”, un adattamento dell’Apple Store (e di iTunes di conseguenza) ad un mondo in rapida espansione in cui Apple ha voluto provare ad applicare il suo modello di business, il suo “savoir faire”. Se l’iPad dovesse realmente competere con device specializzate come il Kindle, ne uscirebbe certamente sconfitto: quella della possibilità di leggere libri è solo una delle molte feature di una device che fa molte cose (quanto al bene, diremo).

In fin dei conti, l’iPad potremmo definirlo come un dispositivo in grado di fare molte cose, ma vittima ancora una volta dei compromessi che questa nicchia di mercato sembra implicitamente portare con se: non ha la potenza elaborativa di un computer ne la portabilità di un iPhone, non ha la durata di batteria e le tecnologie (e-ink) di un vero ebook reader ne le prestazioni e la risoluzione di una console casalinga per video games (tipo Playstation 3).

A tutto questo non possono non aggiungersi le perplessità legate al libero uso della device: non ci potrà essere software non preventivamente “vagliato ed approvato” da Apple che ne castrerà le funzionalità (vedi Flash) come già ampiamente accaduto con l’iPhone, ad insindacabile giudizio della propria proiezione sul mercato. Se su un “telefonino” (se così vogliamo chiamare l’iPhone), questo compromesso poteva essere accettabile (con un po’ di forzature), certo lo è molto meno su questa nuova device…

A queste condizioni (e questo prezzo) non credo proprio che ne acquisterò uno molto presto…

Facciamo sicurezza stradale per davvero?

ggdimarino via Flickr

ggdimarino via Flickr

La situazione della sicurezza sulle nostre strade è a dir poco allarmante. Un po’ a causa delle cattive abitudini dei guidatori (telefonino, alta velocità, disattenzione…), ma decisamente anche a causa di un impianto legislativo e tecnologico obsoleto.

A cominciare dalla manutenzione stradale: strisce pedonali invisibili, segnaletica orizzontale praticamente cancellata, cartelli nascosti da alberi e cespugli, incroci e rotonde progettati in nome della “riduzione della velocità” anziché della fluidità del traffico (con impatti notevoli sulle soglie di CO2 e polveri sottili nell’aria che respiriamo) e da gente che in auto non ci sale mai.

Fortunatamente leggi imposte attraverso l’Unione Europea da paesi più evoluti del nostro hanno portato anche in Italia una serie di provvedimenti che hanno nettamente migliorato la disperata situazione: attraverso normative analoghe alle più famose Euro III, EuroIV ed Euro V (che si occupano in particolar modo della parte ambientale legata alle emissioni) sono state introdotte cose come l’obbligo/abitudine di montare di serie l’ABS, airbag conducente e passeggero, cicalio di segnalazione cinture di sicurezza non allacciate (al momento solo per i posti anteriori, ma spero che lo si estenda presto anche ai sedili posteriori); sul fronte legislativo, l’obbligo di tenere le luci accese anche di giorno (a questo punto mi chiedo perché consentire di spegnerle) ed il meccanismo della patente a punti hanno risparmiato molte più vite di quelle che non si immagini.

Purtroppo gli incidenti continuano ed i morti sulla strada (per le ragioni più varie) sono oltre 6000 ogni anno, con 300.000 feriti (di cui 20.000 ogni anno riportano danni permanenti), e questo fondamentalmente perché si investe pochissimo in sicurezza stradale, mediamente meno di 1 euro a cittadino. Con un bilancio dello stato che stanzia oltre dieci volte tanto per le missioni militari all’estero, forse potremmo anche permetterci di evitare questi 16 morti al giorno sulle strade italiane…

Se si vuole fare sicurezza, sicurezza per davvero, bisogna sfruttare i meccanismi che hanno consentito un maggior impegno sul piano della riduzione delle emissioni: innanzi tutto andrebbe reso obbligatorio l’ESP sulle autovetture di nuova produzione. Si tratta ormai di un costo irrisorio rispetto ai costi dell’autovettura, ma consente di mantenere il controllo dell’auto nelle situazioni di emergenza.
Altri accorgimenti tecnologici, come lo specchietto retrovisore che si scurisce con l’aumentare della luce delle auto che seguono, sono ormai tecnologie testate e sicure, di cui si può incentivare l’adozione con incentivi mirati oppure semplicemente rendendole obbligatorie.

Altre tecnologie (già disponibili sui modelli d’alta gamma) un po’ meno diffuse possono portare ad ulteriori sensibili aumenti di sicurezza, ed andrebbero dapprima incentivate, poi ne andrebbe prevista l’adozione obbligatoria: frenata automatica (anti-tamponamento), magari finanziando l’estensione di questa tecnologia anche all’individuazione dei pedoni, visore notturno ad infrarossi per l’identificazione di pedoni ed animali, il sistema di riduzione dei danni da impatto (destinato ai pedoni) che come un airbag solleva il cofano motore dell’auto attutendo l’impatto del corpo del pedone.

Basterebbero poi accorgimenti anche molto semplici sulla segnaletica stradale, per rendere tutto un po’ più sicuro: ad esempio installare sugli attraversamenti pedonali delle luci led, con un sensore di peso che le accenda ad intermittenza mentre un pedone attraversa la strada, consentirebbe di attirare l’attenzione degli automobilisti mentre magari il pedone è ancora nascosto dal furgone o dal camion di turno, evitando di investirlo…

Sarebbe tanto semplice, a volerlo fare… purtroppo è molto più semplice urlare e propagandare l’incremento delle pene dopo un sabato sera disgraziato, prevedere la pena di morte per chi supera il tasso alcolico consentito, tanto poi i controlli non si fanno e la gente smette di pensarci… lontano dagli occhi, lontano dal cuore…

In edicola il primo numero di Wired Italia

Copertina di Wired Italia #1

Copertina di Wired Italia #1

E’ uscito oggi in edicola il primo numero della versione italiana di Wired, la celebre rivista nata sedici anni fà negli Stati Uniti. Nel mondo di internet e degli amanti della tecnologia, naturalmente, l’attenzione è stata moltissima e non si sono sprecate parole di elogio ed auguri, anche tra i commenti dell’editoriale, riportato anche online.

Non potevo esimermi dal dargli un’occhiata anch’io e quindi, tra i vari giri quotidiani, sono passato anche in edicola. Per quattro euro (l’abbonamento per 2 anni costa al momento 19 euro, con l’80% di sconto…) quello che ci si trova tra le mani è un bel malloppone panciuto, ricco di colori e dalla grafica accattivante. Molto buona anche la sensazione della carta: spessa, solida e resistente.
Al momento sono riuscito a dare solo una scorsa agli articoli, ma vanno fatti i complimenti a Mini e Citroen, gli unici ad aver capito che genere di pubblicità va fatta su una rivista come Wired… (e vi lascio il gusto di andarvi a vedere di cosa si tratta :P)

Buona lettura a tutti ed auguri a Wired…

Palm Pre: un vero concorrente per l’iPhone?

E’ stato annunciato come “la risposta di Palm all’iPhone”: si tratta di “Pre”, il nuovo smartphone di Palm presentato al CES 2009. E’ naturale pensare che Palm punti moltissimo sul nuovo arrivato: rappresenta una sorta di ultima spiaggia.
Negli ultimi anni, infatti, con la sempre maggiore convergenza tra telefonia e palmari, Palm è rimasta un po’ “al palo”, scivolando lentamente ma inesorabilmente verso la bancarotta: da un lato, il mancato successo della famiglia degli smartphone Treo (che non hanno mai realmente incontrato il successo che Palm si attendeva), dall’altra una serie di palmari puri, tecnologicamente inadeguati ad un mondo sempre più interconnesso (per altro “latitanti” di sensibili modifiche da diverse ere geologiche).

Ora il nuovo “Pre” (largamente elogiato dalla stampa) è chiamato a risollevare le sorti della casa, e si presenta agguerritissimo: più ergonomico (a detta di coloro che lo hanno avuto per le mani) del suo diretto concorrente, l’Apple iPhone, il Pre è dotato di una tastiera in hardware (apribile per scorrimento verso il basso della parte posteriore dell’apparecchio), di uno schermo da 3.1″ pollici, nonché di GPS, interfaccia WiFi, bluetooth, connettività UMTS, fotocamera da 3 megapixel e chi più ne ha più ne metta.

Il paragone rispetto all’iPhone di Apple viene naturale ed ecco allora qualche considerazione in proposito:

  • Non mi convince la scelta della tastiera fisica. Sarà anche più comoda da usare (in che occasioni?), ma una tastiera software a scomparsa, oltre a non necessitare di parti mobili del telefono che con il tempo rischiano di danneggiarsi o rompersi, consente di fare cose quali modificarne il layout a seconda della lingua o della tipologia di input (ad esempio la tastiera del mio iPod Touch cambia layout quando inserisco un indirizzo email, presentandomi solamente i caratteri consentiti in un indirizzo email).
  • Piacerà sicuramente a molti l’uso della batteria removibile, ma sinceramente posso contare sulle dita di una mano le volte che ho estratto la batteria dal mio telefono cellulare, fatto salvo il cambio della sim la cui collocazione non è necessariamente dietro la batteria (!).
  • Lo schermo è più piccolo (3.1″ contro 3.5″) e pur lavorando alla stessa risoluzione (480×320) questo aspetto si noterà; inoltre gli angoli arrotondati del display ne riducono probabilmente un po’ l’usabilità…
    Dimensionalmente parlando, la device si avvicina all’iPhone senza purtroppo raggiungerlo: che pur essendo leggermente più grande risulta essere 2 grammi più leggero (133 contro 135 grammi) e notevolmente più sottile (di un buon 35%, 4,6 mm).
  • Mi lascia perplesso anche l’unico taglio disponibile (almeno al momento del lancio) da 8Gb: l’iPhone propone già oggi anche una versione 16Gb e mi aspetto che Apple ne proponga una versione da 32Gb parallelamente all’introduzione della versione 64Gb dell’iPod Touch, data da molti quasi per scontata. Dal canto mio posso testimoniare che l’iPod Touch da 8Gb va “strettino” se si vogliono tenere sulla device un po’ di musica, qualche podcast, magari delle foto…
  • Curioso anche che il supporto per le email Push sia disponibile solo (apparentemente) se accompagnato da un server Microsoft Exchange Server 2003 SP2 o Exchange Server 2007. In alternativa ci si dovrà pare accontentare di un supporto POP3/IMAP standard.

Non voglio però negare che anche in termini hardware, il Palm Pre abbia qualcosa di positivo da dire:

  • Per quanto poco importante, la fotocamera montata sul Palm Pre è migliore di quella dell’iPhone (che ne rappresenta per altro uno dei punti deboli principali), potendo arrivare ad una risoluzione di 3 megapixel contro i 2 del cellulare di Cupertino. Utile anche la presenza del flash, non disponibile invece per l’iPhone (d’altra parte, con una risoluzione ridotta come quelle di cui stiamo parlando, la sua utilità non è eccezionale).
  • Interessante (e curiosa) la possibilità, sebbene opzionale, di utilizzare un caricabatterie wireless: sarà infatti disponibile una “docking station” in grado di ricaricare interamente il Palm Pre tramite induzione in 4 ore.

I veri punti di forza del nuovo smartphone di Palm, però, sono sicuramente nel software:

  • Innanzi tutto, nonostante si sia dato poco risalto a questo aspetto, va sottolineato che il cuore del nuovo sistema operativo WebOS è il kernel Linux, in questo frangente una garanzia in termini di stabilità e sicurezza (un “cuore” Windows Mobile mi avrebbe davvero fatto venire i brividi). Interessante per altro notare come la device venga fornita con a bordo già Microsoft Outlook, che per Linux non è disponibile (ovviamente)…
  • Il legame con l’informatica opensource viene messo in risalto anche dalla decisione di distribuire gratuitamente l’SDK (l’ambiente di sviluppo) per le applicazioni, interamenbte basato su Eclipse (l’applicazione opensource per gli sviluppatori software più famosa ed utilizzata, nata dalle fervide menti di IBM).
  • Molto interessante anche la scelta di utilizzare Javascript (quindi AJAX), CSS ed HTML5 per programmare le applicazioni che gireranno su WebOS: questo renderà non solo più semplice l’approccio alla nuova device, ma aumenterà decisamente il bacino dei possibili sviluppatori “della prima ora”, che Palm stima in circa 100.000 persone. Da questo punto di vista, cruciale sarà la modalità di distribuzione delle applicazioni: nonostante non si tratti di un’idea di per se innovativa (Nokia lo aveva già fatto per la piattaforma Maemo), l’App Store di Apple è diventato un punto di riferimento è fattore chiave del successo dell’iPhone (e dell’iPod Touch), al punto che anche la piattaforma disegnata da Google per le device mobili (Android) si sta dotando di un’infrastruttura analoga. Anche per il Palm Pre è prevista una piattaforma di acquisto/download delle applicazioni, bisognerà valutarne l’efficacia e la quantità di contributi di qualità presenti…
  • Da sottolineare Sinergy, che aggrega in modo trasparente dati locali e remoti, consentendo ad esempio di visualizzare i contatti di Facebook all’interno della rubrica del telefono, magari insieme a quelli del software di instant messaging, o di visualizzare tutte le informazioni e le comunicazioni (telefonate, email, sms) relative ad un contatto, indipendentemente dalla tipologia delle stesse. Si tratta di un’intuizione importante, il cui sviluppo è reso certamente più facile dall’orientamento “al web” della nuova device.
  • Il punto cruciale però che differenzia la piattaforma software dell’iPhone e quella del Palm Pre, è la possibilità di quest’ultimo di eseguire diverse applicazioni contemporaneamente e di poter passare intuitivamente dall’una all’altra. La mancanza di questo aspetto pesa molto sul mio utilizzo dell’iPod Touch ed è forse una delle grosse pecche (sebbene comprensibile in termini tecnologici) della device di Apple. Se la fluidità operativa di WebOS con diverse applicazioni in esecuzione si rivelerà accettabile, proprio questo aspetto potrebbe mettere in seria difficoltà la piattaforma software presente sull’iPhone, costringendo perfino Apple a rivederne il funzionamento.

In conclusione il dubbio che a livello hardware la nuova device di Palm non sia all’altezza dell’iPhone, suo diretto concorrente, rimane: si sarebbe potuto osare qualcosa di più anche se l’incognita del prezzo di vendita richiama alla cautela.
Apple (che ancora una volta conferma di aver letteralmente “aperto la via” in questo campo), offre d’altra parte una versione “senza telefonia” (l’iPod Touch) che contribuisce paradossalmente al successo dell’iPhone; Palm non ha pensato a questa possibilità e sarà quindi fondamentale che il prezzo di vendita risulti largamente abbordabile.

Dell’infuocata battaglia dei sistemi operativi

Il sempre interessante Luca Annunziata scriveva qualche giorno addietro su Punto Informatico relativamente a Windows Seven (capirò mai se si usa il numero o la versione testuale?), concludendo con un paragrafo dedicato al previsto rilascio quasi parallelo, questo autunno, di Apple MacOSX “Snow Leopard” e Windows Seven, prevendendo una “battaglia infuocata”. Ammetto che per concludere l’articolo, la scelta di Luca sia assolutamente legittima (e condivisibile), ma c’è un breve appunto che vorrei fare sulla questione, facendo un passo indietro e considerando l’evoluzione dei sistemi operativi in senso più generale.

Il flop di Vista è a mio avviso legato a doppio filo alla saturazione del mercato, che incide soprattutto sul concetto di obsolescenza programmata: pare che l’utente medio cominci a domandarsi che senso abbia sostituire il proprio hardware o il proprio software per ottenere in cambio qualche effetto grafico più simpatico (dov’è finita la campagna “Wow” di promozione di Windows Vista?).

Microsoft sembra aver parzialmente compreso la (dura) lezione impartita dal mercato e se da un lato si cautela maggiormente sul fronte “dichiarazioni alla stampa” (per non deludere le mirabolanti promesse), dall’altro lavora sodo affinché il nuovo sistema operativo sia un reale passo avanti rispetto a Windows Vista (prevedendo per altro, pare, un taglio dei prezzi e del numero di versioni rilasciate al pubblico), ma non nell’ottica di uno stravolgimento del sistema (come invece è in parte accaduto tra XP e Vista), bensì rendendolo semplicemente migliore.

Il motivo di questa scelta è presto detto: la funzione di un sistema operativo, tecnicamente parlando, è solo quella di mettere in relazione tra loro l’hardware del computer con le applicazioni che ne vogliono fare uso. Punto. Niente gingilli e ghirigori vari. Comprenderete immagino che questo significhi che in termini “evolutivi”, di passi avanti realmente innovativi se ne possano fare ben pochi, e se ne siano fatti ben pochi dalla notte dei tempi.
Per ovviare al problema e riuscire a vendere nuove versini con frequenze accettabili, Microsoft (ma non solo) ha “infarcito” il concetto di sistema operativo finendo con il fargli appartenere anche tutta una serie di applicazioni (ad esempio Internet Explorer o il Media Player) e funzionalità (ad esempio la capacità di agire da Media Center, o come si prevede con Seven, il poter dialogare con periferiche DLNA), che però ad un certo punto raggiungono anch’esse un “arresto evolutivo”, costringendo le case alla ricerca di nuove strategie di vendita.
Ecco allora che, scartato il “nuovo” (Vista), Microsoft torna sui propri passi, intervenendo solamente a suon di affinamenti progressivi, bugfix e poche nuove funzionalità, esattamente come fa’ Apple ormai da diversi anni con le successive versioni di MacOSX.

Dopo questa necessaria, premessa, torno rapidamente a quanto affermato da Luca ed in particolare all’autunno caldo previsto: già a fine aprile verrà rilasciata la nuova versione di Ubuntu, la più famosa distribuzione GNU/Linux user-oriented, ed entro l’autunno (ad ottobre in realtà) ne verrà rilasciata un’ulteriore versione. Esattamente come per Windows Seven e Apple MacOSX “Snow Leopard”, non possiamo (e non dobbiamo!) attenderci Jaunty Jackalope e dalla release successiva (Killer Komodo?) impressionanti salti avanti o introduzioni di stupefacenti features, ma il pur lento affinamento di GNU/Linux, già oggi impressionante se paragonato solo a qualche anno fà, procede a “velocità doppia” (se non quadrupla) rispetto agli altri sistemi operativi sul mercato e forse, alla fine della fiera, è questa la vera novità…

E venne Windows 7…

Con la presentazione di ieri al CES 2009 è ufficiale: il successore di Windows Vista, nome in codice “Windows 7”, è in dirittura d’arrivo. La prima beta ufficiale, dedicata agli sviluppatori ed ai tester, sarà scaricabile da questo pomeriggio dal sito ufficiale del progetto (forse previa registrazione ai servizi MSDN o TechNet?), sebbene solo in 2.500.000 copie (ovviamente non si faticherà a trovarne ulteriori dai circuiti peer-to-peer…).

Nel frattempo, le prime recensioni ed impressioni cominciano ad essere disponibili qua e la, basate sulla presentazione fatta ieri al CES 2009, su quanto promette Microsoft sul sito ufficiale, o su più concrete prove in vivo, poco importa. A differenza di quanto accadde con Vista, questa volta Microsoft parte sin da buon principio con un approccio maggiormente orientato alla community (addirittura promettendo che “7” sarà “costruito sulla base delle richieste degli utenti“) che potrebbe garantire non solo un software di maggior qualità (cosa che tutti speriamo ma che dipenderà esclusivamente dall’abilità dei programmatori di casa Microsoft e dal tempo che sarà stato dedicato allo sviluppo del nuovo sistema operativo) ma anche una molto maggior visibilità e pubblicità (più o meno positiva lo vedremo).
L’esperienza Vista, nel frattempo, ci insegna che anche investendo in pubblicità non sempre i conti tornano: negli Stati Uniti il battage pubblicitario del successore di Windows XP è stato implacabile, eppure le vendite di Vista continuano a non raggiungere le aspettative (costringendo per altro ad un anticipo piuttosto marcato nei tempi di rilascio di “Windows 7” che potrebbe arrivare nei negozi già entro quest’estate, anche se Microsoft lo annuncia per novembre 2009) e risulta quindi importante (se non fondamentale) accompagnarlo da un prodotto poi serio e di buona qualità.

Certo in Microsoft non avranno mancato di notare che per la prima volta nella storia recente, la leadership dei sistemi operativi “Made in Redmond” non è più totale come lo era fino a poco tempo fà: la quota di mercato dei Windows Like infatti è scesa sotto il 90% (comunque non irrisoria, converrete), essenzialmente a favore di Mac OS X ma anche di tutta una serie di distribuzioni Linux, Ubuntu in testa, che non mancano di fare una concorrenza spietata, sul campo tecnologico ma anche pubblicitario, al leader di mercato.

Per valutare l’aspetto tecnologico e le innovazioni del nuovo venuto in casa “Gates & friends” dovremo attendere di poterlo provare in vivo (e ho come l’impressione che quei 2.500.000 download disponibili ce li fumeremo in qualche ora). Nel frattempo qualche considerazione la possiamo fare, al di là della “fuffa” che il marketing ci propina:

  1. In primis, và notato che tra il rilascio di Vista e il completamento dello sviluppo di “7” saranno passati tra i due ed i tre anni, un tempo assolutamente insufficiente non solo per realizzare un nuovo sistema operativo, ma anche solo per lavorare in modo incisivo alle parti più importanti del sistema. Se le differenze che abbiamo potuto apprezzare tra XP e Vista (e non sono moltissime, in fin dei conti) hanno necessitato di oltre 5 anni di lavoro, non possiamo che attenderci differenze ben inferiori tra Vista e “7”.
    E se le novità “promosse da Microsoft” sono solo quelle della pagina What’s new del sito ufficiale… beh, siamo a cavallo…
  2. Viene poi l’annosa questione dei requisiti hardware e dell’obsolescenza programmata: quanti saranno disposti a cambiare pc dopo soli (al più!) 3 anni dall’acquisto di quello Vista Capable?
    Per far girare il nuovo “Windows 7” Microsoft chiede un sistema con processore da 1 Ghz , 1 Gb di RAM e 16 Gb di disco fisso, oltre ad almeno 128 Mb di memoria video ed il supporto per le librerie grafiche avanzate DirectX 9. Niente di eccezionale, di per sé (stavolta non hanno commesso l’errore di annunciare requisiti hardware da infarto per poi dimezzarli prima dell’uscita, come invece era accaduto con Vista), ma dobbiamo tener presente che si tratta dei requisiti minimi; per far girare Windows 7 in modo minimamente decente, avremo bisogno probabilmente di almeno il doppio delle caratteristiche, il che comincia a non essere necessariamente ovvio…
  3. Fattore importante da considerare è che il lancio di “Windows 7” manderà automaticamente in pensione Windows XP, ad oggi da molti consumatori considerato come una “piattaforma di salvezza” di Windows Vista, al punto che ancora oggi sono molto richiesti di “downgrade” di versione. Se la “piattaforma di salvezza” di “Windows 7” sarà Vista, c’è da sperare (per Microsoft) che il nuovo sistema sia davvero “semplice, affidabile e veloce” come promesso da Ballmer al CES 2009… Il fatto comunque che di “Windows 7” ne esista una versione a 32bit (ancora??) fa venire i brividi freddi…
  4. Come per Vista, le modifiche all’interfaccia grafica sono quelle che indubbiamente appaiono come maggiormente visibili di primo acchito, ma nel “day-by-day” sarà solo e soltanto ciò che sta “sotto il cofano” a fare la differenza. La percezione attuale di Vista è che “sotto il cofano” si nascondano più “magagne” che miglioramenti (al punto che in poco meno di 2 anni sono praticamente usciti ben 2 Service Pack…)

Ciò detto, possiamo solo augurarci (ed augurare a Microsoft, naturalmente) che Windows 7 sia, finalmente, un sistema operativo degno di questa classificazione, anche perché di “innovazioni”, nel panorama dei sistemi operativi, ne vedo davvero poche all’orizzonte…
Cosi non fosse, saranno guai per gli utenti e gioie per chi come il sottoscritto (lavorando con Linux) agli utenti fornisce assistenza

Qualche nota sull’ultimo Keynote di Apple

Moscone North Macworld signage Il podcast non è ancora disponibile (e io trovo semplicemente allucinante che un’azienda attenta alla propria immagine come Apple non mandi in streaming i suoi eventi), ma abbiamo tutti potuto seguire l’ultimo Apple Keynote della storia tramite i moltissimi siti internet e blog che seguivano in diretta il MacWorld 2009, evento annuale che prende il via oggi a San Francisco.

L’attenzione che si è generata intorno all’evento è stata come al solito piuttosto intensa, nonostante l’annunciata assenza di Steve Jobs (si era ipotizzata una sua apparizione almeno in videoconferenza, invece ha tenuto fede a quanto scritto nella lettera aperta di qualche giorno fa), ma a mio avviso il materiale presentato non è stato all’altezza dei numerosi rumors che avevano stuzzicato l’appetito non solo dei fedeli di Cupertino, ma anche degli altri amanti della tecnologia in generale ai quali Apple ha sempre regalato qualche sorpresa, negli ultimi appuntamenti.

Le novità di quest’anno invece riguardano essenzialmente le suite software iWork ed iLife, il nuovo MacBook Pro da 17″ (dotato di una nuova batteria a lunga durata che può spingersi fino a 8 ore di autonomia) ed infine un paio di ritocchi ad iTunes, con la decisione di abbandonare il DRM (finalmente!) e il cambio dei prezzi, che saranno ora (a discrezione delle major) 0.69$ o 1.29$  al posto del singolo 0.99$ che abbiamo visto applicato fino ad oggi.

Niente iPod da 64Gb, niente versione ridimensionata dell’iPhone (si era ipotizzata una versione ridotta e magari economica basata sull’iPod Nano), niente rivisitazione dell’iPod Shuffle (ormai in commercio da parecchio tempo), niente netbook derivato dal MacBook Air a far concorrenza all’ormai agguerritissimo mercato dei miniportatili economici, niente imminente rilascio della nuova versione di Mac OS X (Snow Leopard, del cui rilascio non si sa ancora nulla, quindi) a far concorrenza all’ormai prossimo Windows 7, niente nuovo MacMini, niente nuovo iMac…

Insomma, poca cosa rispetto a quanto mostrato negli ultimi anni, anche nelle occasioni di minor rilievo, figuriamoci ad un MacWorld. L’ultimo poi… mi sarei aspettato una chiusura col botto e invece…

L’appuntamento (senza keynote stavolta, pare) è al MacWorld 2010, a gennaio prossimo, che Apple definisce “The start of a new era”… un’era che però cominicerà tra parecchio tempo, durante il quale il mondo dell’informatica sarà diverso da quello che conosciamo oggi…