Archivi tag: informatica

Di mestiere faccio… il pompiere

Mi è stato chiesto di cosa mi occupo per Amazon (beh, un bel po’ di volte per la verità). Diciamo che ad un mese e qualcosa dall’entrata in servizio ho le idee un po’ più chiare su cosa il mio team faccia e colgo l’occasione per buttare giù una breve descrizione (per lo spazio che l’NDA mi concede).

Essenzialmente il team in cui lavoro si occupa di “Event Management”. E’ poco chiaro? Se vi dicessi che “ci occupiamo della risposta agli incidenti Tier-1” è più chiaro? No? Bene, allora andiamo di metafore che rende il tutto più facile 😛

Essenzialmente il mio team agisce in modo analogo a come lavorano i pompieri (al punto che in alcuni frangenti ci occupiamo proprio di “fire fighting”): il nostro compito è quello di stare all’erta (proattivamente, di solito), svolgendo compiti di “secondo piano” (non salviamo gattini sugli alberi, ma ci occupiamo di “piccola manutenzione” alla immensa infrastruttura IT della compagnia) in attesa del momento in cui, a causa di un evento improvviso, entreremo in azione. L’azione in se consiste nell’effettuare alcune valutazioni di base (confermare che non si tratta di un falso allarme, determinare l’impatto sugli utenti dell’evento in analisi, …), dopodiché si procede con l’apertura di una “conference call” in cui poi, attraverso una procedura chiamata “ingaggio”, verranno chiamati a raccolta tutta una serie di personaggi (selezionati a seconda della tipologia di evento che ci troviamo ad affrontare) con lo scopo di individuare la causa e risolvere il problema nei tempi più rapidi possibile (considerando che in caso di problemi davvero gravi, la compagnia perde ben oltre il valore di un mio anno di stipendio ogni minuto, capite bene quanto la velocità di reazione diventi un fattore chiave). Una volta ingaggiato, il ruolo del mio team è quello di guidare la conference call, supportando i partecipanti e verificando che vengano rispettate le necessarie tempistiche e procedure (nei casi più gravi, veniamo a nostra volta supportati da un “leader” che si occupa della guida della conference call al posto nostro, consentendoci maggior concentrazione sulle altre mansioni).

Fortunatamente questo genere di eventi non è troppo frequente e buona parte del team (eccezion fatta per la persona “on call”, che è interamente dedicata alla sola attività di monitoraggio della situazione) è solitamente impegnato nella risoluzione di quelli che prima definivo “compiti di secondo piano”.
Vale la pena soffermarsi un secondo sull’analisi di quale genere di “manutenzioni” ci vengano richieste: non posso naturalmente elencare in dettaglio di che genere di attività si tratta, ma posso sicuramente descriverne la difficoltà media, che è significativa. Infatti la maggior parte delle problematiche di tipo tecnico (molte delle quali sono risolte in modo automatico, attraverso strumenti appositi oppure semplicemente perché l’infrastruttura nel suo complesso è progettata in modo da non renderli dei problemi) sono gestite internamente dai vari team. Qualora non riuscissero a venire a capo del problema, questo passa solitamente in mano nostra. Ecco allora che al nostro cospetto non si presentano più gattini sugli alberi, ma gatte da pelare discretamente incazzate.

Si tratta di un lavoro piuttosto stressante psicologicamente (soprattutto i turni “on call”, massacranti) come immagino sia quello dei pompieri, ma certo non ci si può lamentare dell’interesse medio di quello che si fa, delle possibilità di carriera o di alcuna forma di monotonia…

Di libri ed eBook

Libro catena

rosefirerising via Flickr

Vorrei tornare sulla questione degli eBook, di cui ho già parlato qualche tempo addietro. In particolare vorrei esprimere qualche considerazione sul modello promozionale attualmente adottato dalle case editoriali che offrono i libri elettronici tra i loro prodotti.
Molti paragonano (a ragion veduta) gli eBook agli mp3: infatti la riduzione del volume (in primis) a parità di qualità “utile” rendono questi due prodotti dell’evoluzione tecnologica piuttosto simili; due lievissimi dettagli li differenziano: il prezzo e la possibilità di “generarli” comodamente.

La questione del prezzo è un fattore sicuramente primario nel processo di affermazione del prodotto, ed è attualmente piuttosto uniforme in tutto il mondo, da Amazon alle piccole case editrici italiane: il prezzo di un ebook non si discosta in modo significativo dal prezzo del libro. Vi faccio un esempio concreto: attualmente l’ebook di “La Caduta dei Giganti” di Ken Follet (un autore a caso tra quelli conosciuti) costa 15,99€, con un risparmio di meno di 2 euro rispetto alla versione stampata.
A queste condizioni economiche perché dovrei acquistare l’ebook, considerando oltretutto che dovrò dotarmi di un’apposita device (dal prezzo non trascurabile, solitamente di almeno 200 euro) per poterlo leggere comodamente in mobilità (la vera “novità” degli ebook)?

C’è poi la questione della generazione del materiale digitale a partire dal materiale fisico già posseduto; se possiedo un CD originale, nessuno (nessuno!) mi vieta di generarne una versione digitale da utilizzare con il mio lettore mp3. Si tratta di un processo piuttosto banale, gratuito e dal risultato qualitativamente accettabile, che taglia letteralmente fuori dal mercato del “trasferimento digitale” le case discografiche.
Con gli ebook questo processo è indubbiamente più complesso e rischia di avere un risultato molto più scadente. Ecco però che le case editrici potrebbero allora volgere questa difficoltà a loro vantaggio: se io possiedo la copia cartacea del libro non sono certo invogliato ad acquistarne la versione digitale a prezzo pieno, ma sarei magari disposto a spendere qualche euro (3, 4?) che sarebbe praticamente tutto guadagno della casa editrice.
Invece al momento la grande iniziativa di marketing si limita al consentire la vendita del formato digitale allo stesso prezzo del libro, “castrando” un mercato potenzialmente interessante ed in espansione.

E non è da sottovalutare la questione del DRM: la battaglia per impedire la copia e la diffusione degli mp3 è stata persa (dalle major discografiche), dopo una battaglia violenta e sanguinosa, quando finalmente si è accettato di ridurre i propri guadagni per rendere poco conveniente la copia degli mp3 rispetto all’acquisto del brano singolo (ormai standardizzato intorno all’euro circa). Quanto ci vorrà perché questo accada anche con gli ebook? Per quanto tempo non saremo in grado di trasferire un ebook da una device all’altra o peggio, da un software all’altro?

La miopia indotta dal denaro è notevole, e questa sarà l’ennesima occasione per dimostrarlo. Ed a pagarne le conseguenze saranno, come al solito, i consumatori…

VP8: Apple contro tutti

Google I/O

Pat Hawks via Flickr

Sembrerà male, sarà poco elegante, ma lasciatemelo dire: “l’avevo detto”. Qualche tempo fa’, all’epoca dell’acquisizione di On2 da parte di Google ed in piena battaglia sulla questione dei codec (con Mozilla che all’ora si schierava apertamente a favore di Theora e contro H.264), si discuteva dei possibili sviluppi allo scenario dell’informatica (e di Internet in particolare) che questo passo avrebbe portato. Il maggior valore di On2 infatti (quello che Google voleva verosimilmente acquistare), sta decisamente nel codec VP7 (del quale viene oggi annunciato il successore, VP8 per l’appunto) ed era facilmente prevedibile che Google preparasse una mossa “ad effetto” rilasciando questo codec sotto una licenza libera (nella fattispecie si tratta della licenza BSD) e senza “royalties”, andando così a dichiarare guerra aperta ad Apple (su tutti) ed al codec H.264 all’interno delle specifiche video di HTML5.

Cos’è un codec?

Ok, mi rendo conto, troppe sigle. Urge una spiegazione per chi non mastica pane e bit da mattina a sera. La rappresentazione di immagini su uno schermo (sia questo quello della televisione o quello di un pc, o di un telefonino poco importa), necessita senza eccezione alcuna della definizione di una “rappresentazione informatica” dei dati che si vogliono far apparire. Questa rappresentazione (che può assumere molte, moltissime forme), viene definita “codec“. Per chiarire il concetto di “codec”, facciamo un esempio pratico: ci troviamo nella condizione di voler visualizzare sullo schermo di un pc un’immagine completamente bianca (il caso più semplice); il meccanismo più semplice per rappresentare digitalmente questa immagine è quello di descrivere pixel per pixel i colori che la compongono; assegneremo quindi una scala di colori (dal bianco al nero, passando per tutti i vari colori), partendo da 0 (bianco) ed arrivando, ad esempio, a 255 (nero); dopodiché inseriremo in un file le codifiche di ogni singolo pixel che compone la nostra immagine, uno di fianco all’altro; nel momento in cui (dotandoci di un apposito programma che sia capace di “decodificare” il nostro codec), andremo a visualizzare l’immagine, sarà sufficiente leggere i codici colori e “colorare” i pixel dello schermo sulla base dei colori indicati.
Naturalmente un codec così semplice ha delle limitazioni notevoli

  • prima di tutto non è in grado di mostrare immagini in movimento (potremmo però comporre più rappresentazioni in successione, creando il movimento)
  • secondariamente è molto poco efficace: un’immagine 1920×1080 pixel (il formato del “Full HD” ci costringerà a definire 2.073.600 pixel, anche se fossero tutti bianchi. Un’idea potrebbe essere quella di indicare le sequenze di pixel colorati allo stesso modo in versioni “ridotte”, o assegnare “codici” a sequenze definite e ripetitive di pixel…
  • c’è poi la questione del codice colore: 256 colori sono decisamente pochi per rappresentare con un’immagine di buona qualità. L’aumento del numero dei colori possibili però (e quindi della dimensione della rappresentazione del singolo pixel), fa crescere proporzionalmente la dimensione dell’immagine finale: se posso rappresentare 256 colori con 32bit (e quindi la nostra immagine di cui sopra da 2.073.600 pixel “peserà” 8.2 megabytes), rappresentarne solo 512 (il doppio) necessiterà di 64bit (e quindi arriveremo a 16.4Mb). Una “profondità di colore” che consenta immagini realistiche si aggira intorno ai 16.7 milioni di colori, portando la nostra immagine a dimensioni spropositate (svariate migliaia di gigabytes).

Ecco quindi il perché del fiorire di codec differenti: ottimizzazione delle prestazioni a parità di dimensione della rappresentazione digitale (con algoritmi di codifica più o meno complessi), velocità di codifica e decodifica e via dicendo. Anche la semplicità dell’algoritmo del codec stesso è un fattore molto importante: un algoritmo molto  complesso è difficilmente implementabile “in hardware” (dedicandogli quindi un chip che faccia il lavoro di decodifica), con ripercussioni notevoli sul consumo di batteria (un chip dedicato consuma meno del processore che esegue il software di decodifica) e sulla velocità di decodifica.

Di fronte a tutti questi codec, ci sono come al solito due vie per “standardizzare” l’uso di un codec piuttosto che l’altro: la via “de jure”, che prevede l’inserimento di un ben specifico codec all’interno di un formato, oppure la via “de facto” in cui è l’adozione massiccia (solitamente per via di caratteristiche tecnica inconfutabili) a dettare la standardizzazione del formato. Nel mondo reale, una “specifica” consente spesso di adottare codec diversi all’interno del “contenitore”: la sezione video delle specifiche HTML5 (la nuova versione delle specifiche HTML che consentono di creare pagine web “arricchite” senza bisogno di ricorrere ad “aiuti esterni” come Flash o player dedicati) è definito che si possano usare codec differenti sia per quanto riguarda il canale audio che quello video, il che ha portato fino ad oggi all’adozione di H.264 (codec video) e AAC (codec audio). Purtroppo il formato H.264 è proprietario e (soprattutto) gravato dalla necessità di pagare una “tassa” (royalty) al proprietario del codec stesso, cosa non possibile nel caso di software libero (sviluppato cioè, semplificando, sotto la spinta di una comunità di sviluppatori e non di un’azienda che possa farsi carico del pagamento della royalty stessa).

Dicevamo…

Tornando alla discussione iniziale, la scelta di Google di rendere il successore del codec VP7 (acquisito attraverso l’acquisto On2), detto VP8, libero ed esente da royalty, oltre che prevedibile, apre un nuovo scenario, consentendo l’implementazione delle specifiche HTML5 attraverso codec liberi e royalty-free (affidando la parte audio all’ottimo codec Theora). Purtroppo VP8 è al momento ancora un codec incompleto (e le specifiche sembrano essere ancora poco precise) ed apparentemente coperto da una serie di “software patents” (i brevetti software che in Europa si cerca di scongiurare da svariati anni ma che sono da anni legge negli Stati Uniti) che renderebbero Google un soggetto facilmente attaccabile sul fronte giudiziario. Visto che però a Mountain View non sono degli sprovveduto, ritengo che abbiano in mente tempi e modi per risolvere queste problematiche.

Il motivo per cui questa scelta da parte di Google porta tanto scalpore, è da ricercarsi nella particolare congiuntura in cui il mondo del web si trova oggi:

  • il ruolo sempre più importante del video nel web (ed il particolar modo il fenomeno YouTube, acquisito da Google qualche anno fa) e la scarsa adattabilità di Flash nel ruolo di player più usato (per via sia della parte software, proprietaria e ormai vecchiotta, sia del codec scelto), portano particolare attenzione sulle nuove specifiche HTML5 ed in particolare proprio sul frangente di audio e video.
  • il sempre maggior affermarsi di Firefox come vero antagonista di Internet Explorer sul panorama dei browser, con una percentuale di “market-share” non più trascurabile (oltre il 25%), rende necessaria un’attenzione particolare alle tematiche del software libero, che Google ha sempre ascoltato in modo favorevole.
  • il sempre maggior diffondersi di “device mobili” (iPhone, smartphone, palmari, netbook, tablet e chi più ne ha più ne metta) con caratteristiche computazionali spesso inadatte a fare computazione pesante ma orientati sopratutto alla fruizione di contenuti web, tra cui per l’appunto i video, impone un occhio di riguardo alla tematica dell’implementabilità in hardware.
  • è in corso da parecchio tempo un braccio di ferro tra Adobe (proprietaria di Flash) ed Apple in quanto sugli iPhone non c’è il supporto a Flash. Apple si è giustificata dicendo che il player Flash è un software di scarsa qualità (cosa sulla quale potrebbero trovarmi parzialmente d’accordo, per altro) e che le specifiche del codec sono tali da rendere difficoltosa e costosa l’implementazione in hardware, fondamentale per una maggior durata delle batterie delle device mobili. Apple ha poi presentato, qualche tempo fa, una propria proposta per risolvere il problema, Gianduia (che sarebbe un’alternativa non solo a Flash ma anche a Silverlight, di Microsoft), che non ha però visto alcuna reazione da parte di Google, che evidentemente preparava il lancio di VP8.

Andiamo allora ad analizzare le reazioni dei “player” più importanti di fronte all’annuncio di Google:

  • I proprietari di Flash (Adobe per l’appunto) sono stati i primi a replicare all’annuncio di Google, affermando che il formato VP8 sarà immediatamente supportato dal player Flash. Per Adobe l’orizzonte sembra piuttosto scuro: l’arrivo di HTML5 comporterebbe il progressivo abbandono di Flash come colonna portante dell’animazione sul web, della quale oggi è l’unico indiscusso interprete. L’implementazione di VP8 potrebbe consentire di mantenere un certo respiro per via della “backward compatibiliy” (i siti consentiranno l’accesso ai propri contenuti sia tramite Flash, per i browser più vecchi, sia attraverso HTML5). Andare a braccetto con Google significa inoltre garantirsi l’enorme visibilità legata a YouTube (che costituisce una parte preponderante del video online) e mette Adobe in una posizione dominante, sebbene riflessa.
  • Dopo il sostanziale “flop” di SilverLight e Bing, Microsoft cerca una via d’uscita per tornare ad essere un player importante del mondo del web a prescindere dalle (sempre minori) quote di mercato di Internet Explorer. L’orientamento alla “compatibilità” è già stato dimostrato con la maggior attenzione alle specifiche HTML e CSS delle ultime release del browser “made in Redmond” ed in Microsoft non devono essersi lasciati sfuggire il fatto che se Google va verso VP8, il web va verso VP8. Prendere la palla al balzo era fondamentale e l’annuncio del supporto a VP8 da parte di Internet Explorer 9 non ha tardato (così come non aveva tardato l’annuncio del supporto a H.264 non troppo tempo fa).
  • La posizione di Apple sulla questione VP8 era attesa da giorni e solo questa mattina si è appreso del parere “contrario” di Cupertino. Apple afferma che le royalty su H.264 non sono tali da renderle fastidiose (purtroppo nel mondo del software libero, costose o meno, non si possono pagare perché non c’è un ente preposto al pagamento stesso ed espone critiche tecniche sul formato VP8 stesso, considerato espressamente concepito per il web ed incapace di offrire contenuti di alta qualità, soprattutto se comparato al più prestante e complesso codec MPEG-4.

Si instaura (o meglio, si ravviva) così un braccio di ferro tra il crescente mercato delle device mobili targate “Apple” (numericamente non trascurabile) e quello del software libero, che certo non farà bene ad una crescita “sana” del web. Purtroppo per Apple, in questo caso, la posizione di Google non sarà verosimilmente una posizione “d’attesa”, e “tagliare fuori gli iPhone dai contenuti video di Youtube” potrebbe essere una minaccia in grado di smuovere non poche poltrone, a Cupertino…

Quattro chiacchiere sull’iPad

Apple iPad

Il nuovo Apple iPad

E’ ovviamente la notizia della settimana (scorsa) e puntualmente non mi esento dallo scrivere qualche considerazione, dopo aver riflettuto un po’ (a caldo spesso si dicono cose che a mente fredda risultano anche piuttosto ridicole). Parliamo quindi del nuovo “giocattolo” di Apple, l’iPad. Già definire di cosa si tratti non è banale: qualcuno ha detto che è un iPhone passato sotto la schiacciasassi, qualcuno ha detto che è l’ottava meraviglia del mondo digitale. Io vorrei provare a considerarlo come Apple ha voluto presentato: una via di mezzo tra uno smartphone ed un portatile, che cerca di prendere qualcosa da entrambi riuscendo “meglio” degli ispiratori in alcune funzioni chiave.

Le funzionalità chiave su cui Apple punta il dito, indicandole come i veri “punti di forza” del nuovo iPad sono la navigazione web, la gestione della posta elettronica, il multimedia (foto, musica e video, anche online), i videogiochi e l’eBook reader. Il paragone, durante il keynote di Steve Jobs, è stato fatto con i netbook, a detta del fondatore di Apple “migliori in niente” rispetto ai portatili. Provo allora anche io a confrontare il nuovo dispositivo “made in Cupertino” con quello che il mercato ha da offrire.

Tanto per cominciare, purtroppo per Apple, la nicchia di mercato in cui va ad inserirsi l’iPad è ancora poco definita e dai contorni sfumati. Un netbook è indubbiamente “un portatile economico” (come Steve Jobs l’ha definito, durante la presentazione) e sebbene voglia fare della portabilità la sua arma vincente, i compromessi a cui si deve esporre sono talmente pesanti che spesso diventano un tallone d’achille: per intenderci il mio eeepc è fermo su una mensola da diversi mesi e viene acceso solo occasionalmente, certo non durante il tran-tran della vita quotidiana. Non dubito, intendiamoci, che in un futuro più o meno prossimo device come i tablet-pc (tra i quali possiamo annoverare l’iPad) o i netbook ricaveranno alla fine una loro fascia d’utilizzo; quello che intendo dire è che avendo a disposizione un portatile ed uno smartphone (e in questo settore, indubbiamente l’iPhone ha dettato la direzione), sento decisamente poco la mancanza di una “device di mezzo”.

Paragonandolo al “fratellino minore”, l’iPhone, la vera “innovazione” che l’iPad propone sembrerebbe essere la dimensione dello schermo: l’evoluzione del software del sistema operativo che ne sfrutta al massimo le potenzialità (indubbiamente, le immagini dell’interfaccia utente sono spettacolari) non ne è che una diretta conseguenza dei 9 pollici e rotti di cui potranno godere i suoi utenti.
Inutile dire che il prezzo da pagare (o compromesso che dir si voglia) è quanto mai pesante: l’iPhone mi entra in tasca (per quanto non proprio comodamente), mentre l’iPad avrà bisogno di una custodia per essere trasportato, non si tratta certo di una device “maneggevole”. Per di più, se Apple avesse realmente voluto puntare tutte le sue carte sullo schermo, avrebbe avuto senso portarlo ad una risoluzione “full-hd”, della quale avrebbero giovato in prima istanza proprio le funzionalità “multimediali”, ma indubbiamente anche quelle legate alla piattaforma di gioco.

Della (scarsa) portabilità del nuovo iPad ho già detto, ma vorrei tornarci per un’ulteriore considerazione: così come trovo fastidioso tirare fuori il portatile dallo zaino mentre sono in giro per visitare un sito web o leggere la posta (o leggere un libro, per la differenza che può fare), credo che mi troverei ugualmente a disagio ad estrarre una device delle dimensioni dell’iPad in tram, o al ristorante, forse un po’ meno su lunghi viaggi, ma non rappresentano mediamente una nicchia sufficientemente ampia da essere appetibile; se il target diviene allora quello di una device “casalinga” più comoda e maneggevole di un portatile, ecco che allora la durata della batteria non è più fondamentale: perché non dotare allora l’iPad di un processore più potente in grado magari di far girare una versione customizzata di MacOSX e non un povero sviluppo del software che gira sull’iPhone, con tutte le limitazioni che questo comporta? Si tratta verosimilmente dell’ennesimo compromesso: peso, durate della batteria, (probabilmente) semplicità di sviluppo e (sicuramente) l’attrattiva di poter disporre sulla nuova device del non indifferente parco software che si è creato intorno all’iPhone ed al suo AppStore (sul quale chiaramente Apple ha investito buona parte del keynote).
L’adozione di un sistema operativo “da portatile”, avrebbe tra l’altro consentito di aggirare alcuni (grossi) limiti d’usabilità che possiamo individuare su un iPhone e che sebbene possano essere spiegati su una device “specializzata” come lo smartphone (su cui comunque sono stati a ragione ampiamente criticati), faticano molto di più a trovarla su un tablet-pc: ad esempio l’impossibilità di gestire il multitasking (esserci c’è, solo che l’utente non può gestirlo a piacere, rendendolo sostanzialmente inutile), oppure l’impossibilità di salvare files su disco (come salvo un pdf scaricato via web per poterlo visualizzare offline? :/).

Il prezzo è sostanzialmente allineato con il mercato (cosa non altrettanto vera per l’iPhone all’ora della sua uscita, se ci pensate): sebbene sia più costoso dei più comuni netbook, l’iPad ha dalla sua parte un disco fisso stato solido più efficiente e capiente (e fa la differenza), un sistema operativo “dedicato” in grado di sfruttarne appieno le caratteristiche hardware (essendo quest’ultimo stato sviluppato a braccetto con gli sviluppatori del software). Ancora una volta Apple posiziona il suo prodotto nella fascia medio-alta del mercato, verosimilmente per le logiche di marketing che già sono state più volte evidenziate. Va detto che allo stato attuale delle cose, la concorrenza non ha granché di meglio da offrire, anzi Apple ancora una volta anticipa tutti, proponendo un prodotto che vedrà i primi veri competitor in vendita tra parecchi mesi (si parla di fine anno). Sicuramente va riconosciuta ad Apple la capacità di “guidare” questo mercato (non a caso sono ormai la prima “Mobile Device Company” mondiale in termini di fatturato), dettandone le regole in termini di funzionalità (per le quali spesso è un punto di riferimento, vedere alla voce “interfaccia utente iPhone”).

Sicuramente Apple non ha voluto lanciare un eBook reader: lo sviluppo di iBooks secondo me è stata un’introduzione “dell’ultimo momento”, un adattamento dell’Apple Store (e di iTunes di conseguenza) ad un mondo in rapida espansione in cui Apple ha voluto provare ad applicare il suo modello di business, il suo “savoir faire”. Se l’iPad dovesse realmente competere con device specializzate come il Kindle, ne uscirebbe certamente sconfitto: quella della possibilità di leggere libri è solo una delle molte feature di una device che fa molte cose (quanto al bene, diremo).

In fin dei conti, l’iPad potremmo definirlo come un dispositivo in grado di fare molte cose, ma vittima ancora una volta dei compromessi che questa nicchia di mercato sembra implicitamente portare con se: non ha la potenza elaborativa di un computer ne la portabilità di un iPhone, non ha la durata di batteria e le tecnologie (e-ink) di un vero ebook reader ne le prestazioni e la risoluzione di una console casalinga per video games (tipo Playstation 3).

A tutto questo non possono non aggiungersi le perplessità legate al libero uso della device: non ci potrà essere software non preventivamente “vagliato ed approvato” da Apple che ne castrerà le funzionalità (vedi Flash) come già ampiamente accaduto con l’iPhone, ad insindacabile giudizio della propria proiezione sul mercato. Se su un “telefonino” (se così vogliamo chiamare l’iPhone), questo compromesso poteva essere accettabile (con un po’ di forzature), certo lo è molto meno su questa nuova device…

A queste condizioni (e questo prezzo) non credo proprio che ne acquisterò uno molto presto…

Dell’infuocata battaglia dei sistemi operativi

Il sempre interessante Luca Annunziata scriveva qualche giorno addietro su Punto Informatico relativamente a Windows Seven (capirò mai se si usa il numero o la versione testuale?), concludendo con un paragrafo dedicato al previsto rilascio quasi parallelo, questo autunno, di Apple MacOSX “Snow Leopard” e Windows Seven, prevendendo una “battaglia infuocata”. Ammetto che per concludere l’articolo, la scelta di Luca sia assolutamente legittima (e condivisibile), ma c’è un breve appunto che vorrei fare sulla questione, facendo un passo indietro e considerando l’evoluzione dei sistemi operativi in senso più generale.

Il flop di Vista è a mio avviso legato a doppio filo alla saturazione del mercato, che incide soprattutto sul concetto di obsolescenza programmata: pare che l’utente medio cominci a domandarsi che senso abbia sostituire il proprio hardware o il proprio software per ottenere in cambio qualche effetto grafico più simpatico (dov’è finita la campagna “Wow” di promozione di Windows Vista?).

Microsoft sembra aver parzialmente compreso la (dura) lezione impartita dal mercato e se da un lato si cautela maggiormente sul fronte “dichiarazioni alla stampa” (per non deludere le mirabolanti promesse), dall’altro lavora sodo affinché il nuovo sistema operativo sia un reale passo avanti rispetto a Windows Vista (prevedendo per altro, pare, un taglio dei prezzi e del numero di versioni rilasciate al pubblico), ma non nell’ottica di uno stravolgimento del sistema (come invece è in parte accaduto tra XP e Vista), bensì rendendolo semplicemente migliore.

Il motivo di questa scelta è presto detto: la funzione di un sistema operativo, tecnicamente parlando, è solo quella di mettere in relazione tra loro l’hardware del computer con le applicazioni che ne vogliono fare uso. Punto. Niente gingilli e ghirigori vari. Comprenderete immagino che questo significhi che in termini “evolutivi”, di passi avanti realmente innovativi se ne possano fare ben pochi, e se ne siano fatti ben pochi dalla notte dei tempi.
Per ovviare al problema e riuscire a vendere nuove versini con frequenze accettabili, Microsoft (ma non solo) ha “infarcito” il concetto di sistema operativo finendo con il fargli appartenere anche tutta una serie di applicazioni (ad esempio Internet Explorer o il Media Player) e funzionalità (ad esempio la capacità di agire da Media Center, o come si prevede con Seven, il poter dialogare con periferiche DLNA), che però ad un certo punto raggiungono anch’esse un “arresto evolutivo”, costringendo le case alla ricerca di nuove strategie di vendita.
Ecco allora che, scartato il “nuovo” (Vista), Microsoft torna sui propri passi, intervenendo solamente a suon di affinamenti progressivi, bugfix e poche nuove funzionalità, esattamente come fa’ Apple ormai da diversi anni con le successive versioni di MacOSX.

Dopo questa necessaria, premessa, torno rapidamente a quanto affermato da Luca ed in particolare all’autunno caldo previsto: già a fine aprile verrà rilasciata la nuova versione di Ubuntu, la più famosa distribuzione GNU/Linux user-oriented, ed entro l’autunno (ad ottobre in realtà) ne verrà rilasciata un’ulteriore versione. Esattamente come per Windows Seven e Apple MacOSX “Snow Leopard”, non possiamo (e non dobbiamo!) attenderci Jaunty Jackalope e dalla release successiva (Killer Komodo?) impressionanti salti avanti o introduzioni di stupefacenti features, ma il pur lento affinamento di GNU/Linux, già oggi impressionante se paragonato solo a qualche anno fà, procede a “velocità doppia” (se non quadrupla) rispetto agli altri sistemi operativi sul mercato e forse, alla fine della fiera, è questa la vera novità…

Un’estensione per la privacy online?

seleneQuesta mattina un cliente mi ha scritto una mail segnalandomi un interessante (e lodevole per qualità e completezza) articolo del Corriere, che spiegava quali tecniche si possono utilizzare per navigare “al sicuro” dalla profilazione da parte di Google (o in ogni caso da parte degli altri operatori della rete). Mi occupo, purtroppo, di privacy e sicurezza online da troppo tempo per credere che basti un’estensione di firefox per “navigare sicuri”.

Colgo allora l’occasione della risposta inviata per riportare un’analisi delle tecnologie riportate nell’articolo anche in queste pagine, perché nonostante l’articolo sia interessante e non fondamentalmente errato (anzi), penso che un po’ di precisazioni in materia possa essere d’aiuto per coloro che abbiano letto quell’articolo (soprattutto, che possa contribuire ad innalzarne il livello di paranoia :P).
Per coloro che invece fossero interessati ad approfondire anche tecnicamente l’argomento, consiglio vivamente il libro di Zalewski recensito su queste pagine qualche giorno fà, assolutamente abbordabile anche per coloro che non fossero proprio esperti in materia di informatica (Zalewski dimostra in questo libro una chiarezza davvero sorprendente per un tema così complesso).

Tanto per cominciare, è indubbio che sia è impensabile smettere di usare Google per evitare di essere da esso profilati. Non tanto perché è uno strumento completo e funzionante (esistono altri motori di ricerca, naturalmente, che fanno egregiamente il loro mestiere), quanto perché con una penetrazione in rete che sfiora l’80% (tra referrer e link su pagine che contengono script javascript che fanno capo a Google, su tutti AdSense e Analitycs), è ben difficile, tecnicamente parlando, aggirarne i tentacoli.

Cominciando poi dalle cose meno utili, breve accenno all’estensione scroogle: sposta banalmente il problema da Google ad un’altra entità (meno affidabile per altro, visto che non è così grosso ed importante da essere soggetto alle leggi di scala a cui invece si trova ad essere esposta l’azienda di Montain View), facendo filtrare tramite quest’ultima le richieste al Grande Motore. Se posso pensare di dare io la mia fiducia a Daniel Brandt (che “nel giro” gode certamente di una fama non indifferente, visto l’ottimo lavoro condotto da Google Watch) non si può certo pensare che per vincere la (sana) paranoia da tracciamento, spostare il target in questa direzione possa sortire qualche effetto.

Sicuramente più valida è l’opzione di usare in maniera correlata Tor e Privoxy, che insieme sono in grado di rendere effettivamente casuali la provenienza delle varie richieste nei confronti del web, rendendo inutili le tecniche di tracciamento fatte tramite cookie et simili. Una trattazione approfondita della tecnologia di Tor sarebbe fuori luogo in questo frangente, quindi lascerò l’approfondimento alla vostra discrezione: dirò solo che oltre all’esposizione ad un uso sbagliato di questa tecnologia (che ne vanifica l’utilità) gli utenti meno esperti, l’uso di Tor ha come suo punto debole i punti d’uscita della rete di “randomizzazione”, aspetto sul quale sono in corso alcune interessanti ricerche.

Analogamente, l’idea proposta da Track Me Not è indubbiamente interessante (e per altro incarna una delle strade che si stanno battendo proprio in questi mesi per combattere la profilazione): generare richieste “random” al motore di ricerca di turno per tentare di camuffare le richieste reali tra una certa quantità di “rumore” casuale è indubbiamente valida: il problema sta tutto nel riuscire a rendere credibili (e non distinguibili da quelle  reali) le richieste generate dall’estensione. Il fattore “caso” infatti è una delle cose più complicate da riprodurre tramite un computer, mentre viene spaventosamente bene ad un essere umano: quanto difficile sarebbe “filtrare” le richieste dell’estensione se venissero fatte a cadenza regolare, o con un generatore di numeri non sufficientemente casuale, o avessero un pattern di ricerca banale, riconoscibile, o semplicemente poco attinente con la tipologia media delle ricerche dell’utente? Analogamente, quanto difficile è riconoscere una persona mascherata a partire dalla voce, dal modo di muoversi, dai comportamenti? Questo è l’aspetto difficile del gioco, non certo la generazione di rumore…
La soluzione potrebbe essere nella generazionen di un pool remoto di pattern di ricerca (a cui ognuno dovrebbe contribuire inviando automaticamente le proprie) che possa essere poi replicato da tutti gli utenti che usino quella stessa estensione, introducendo un reale rappordo di casualità nella generazione dei pattern di ricerca. Rimarrebbe il problema della temporizzazione delle richieste “false”, ma sarebbe già un problema minore.

In questo modo cerca di agire, per quel che riguarda i cookies di tracciamento, da un’altra estesione interessante segnalata dall’articolo, Scookies (non per niente scritta dal buon Bakunin): questa estensione è effettivamente in grado di vanificare il tracciamento fatto a mezzo cookie, scambiando i cookie dei vari utenti in modo dinamico. Analogamente al caso di Tor/Privoxy però, questa tecnica è si in grado di rendere vano l’uso dei cookie di tracciamento, ma lascia aperte altre strade che rischiano di vanificare tutto il lavoro fatto (analogamente, in un certo senso, al rifiuto banale di usare i cookie, funzionalità già disponibile in moltissimi browser).

Con un po’ di attenzione e poca fatica infatti, si potrebbe differenziare comunque i vari utilizzatori indipendentemente dal cookie di tracciamento, facendo riferimento ad esempio a pattern ripetitivi di ricerche (difficile che il sottoscritto si trovi a fare ricerche su certi argomenti, molto più facile che cerchi qualcosa che riguardi l’informatica), alle temporizzazioni, al fetch dei dati dalle cache.
Quest’ultima tecnica è a mio avviso il vero problema chiave da risolvere nei prossimi anni per quel che riguarda la privacy online: ogni browser infatti è sperimentalmente identificabile a seconda dei dati che ha memorizzato tra i “files temporanei” (la cache appunto). Se un utente ha visitato una certa pagina in un certo momento, in cache verranno salvati certi files (con certi orari) e non altri. Se invece l’utente ha già visitato la pagina, il browser non richiederà tutti i files, ma solo alcuni (quelli che non ha in cache, o quelli che sono marcati come “non cachabili”); l’analisi di quali files sono richiesti, in quale ordine, con quali parametri (ad esempio la richiesta potrebbe arrivare per un file “solo se non è stato modificato dalle ore 23:53 del 24/08/2008”, rendendo facilmente identificabile addirittura l’ora di ultima visita di quello specifico utente), è in grado non solo di correlare le varie sessioni di uno stesso utente indipendentemente dal cookie di tracking, ma addirittura identificare la tipologia di browser che utilizza (ad esempio analizzando l’ordine con cui vengono richiesti i vari files che compongono una pagina web, che differisce da browser a browser, come Zalewski dimostra nel libro precedentemente citato).

Tutto questo senza considerare che è sperimentalmente dimostrato che si è oggi in grado di identificare un utente (perfino remotamente) dal modo con cui digita sulla tastiera (al punto che un’università americana ha messo a punto un sistema di login biometrico che si basa proprio su questo genere di analisi): velocità di battitura, errori più comuni, temporizzazioni.

Insomma, alla fine della fiera si torna sempre allo stesso concetto: quando si vuole difendere qualcosa, bisogna controllare tutto il fronte. Quando si attacca, basta trovare una falla, una dimenticanza…

Michal Zalewski – Il rumore dell’hacking

Immagine di Il rumore dell'hacking
Il più grande errore che un informatico di professione possa commettere, è ritenere (ad un certo punto) di aver capito qualcosa della materia della quale si occupa; ci si fossilizza su alcune idee, si cominciano a trattare sempre le stesse tipologie di problemi e via dicendo, correndo verso quel baratro di noia che è la routine. E’ tanto più facile incorrere in questo errore, tanto più approfondite sono le competenze che si possono vantare e l’umiltà di continuare a cercare in giro, in mezzo alla montagna di argomenti “obsoleti” o “già noti” alla ricerca di qualcosa di nuovo ed interessante, a volte scoraggia, lo ammetto.

Poi capita che un amico ti segnali (e ti presti) un libro del cui autore non conosci neppure il nome (e in realtà scoprirai che è solo la maledetta abitudine acara di usare il nickname) e ti capita che questo libro di faccia accendere tante di quelle lampadine nella mente, a rischiarare il buio che il tempo ci ha portato, che puoi solo sperare di non dover pagare la bolletta all’Enel.

Michal Zalewski è uno dei mostri sacri del fingerprinting, un “white hat” estremamente giovane (è dell’81, in Polonia) eppure già oggetti di stima ed ammirazione. In questo libro, Zalewski mette banalmente a disposizione del lettore parte della sua conoscenza, conducendolo per mano nel mondo del fingerprinting passivo (ed attivo), tra cose stupefacenti ed incredibili eppure ogni volta giungendo a dimostrarne la fattibilità.

Un libro assolutamente consigliato a tutti coloro che si occupano di informatica, di sicurezza e di telecomunicazioni e che non lo annoverino già nella propria biblioteca.

Commento su Anobii.com:

In questo libro, il giovane polacco, mostro sacro del fingerprinting, Michal Zalewski mette banalmente a disposizione del lettore parte della sua conoscenza, conducendolo per mano nel mondo del fingerprinting, tra cose stupefacenti ed incredibili eppure ogni volta giungendo a dimostrarne la fattibilità.
Un libro assolutamente consigliato a tutti coloro che si occupano di informatica, di sicurezza e di telecomunicazioni e che non lo annoverino già nella propria biblioteca.

Quali strategie per i big dell’informatica?

iPhone Ogni tanto mi piace fare considerazioni completamente infondate sulla situazione dei grandi colossi dell’informatica, cercando di immaginare la situazione in cui si trovano e come potrebbero strategicamente muoversi in un prossimo futuro, anche alla luce degli avvenimenti che quotidianamente “sconvolgono” il mondo dell’informatica. Ecco i risultati delle mie elucubrazioni più recenti:

  • Microsoft: non si potrebbe non cominciare l’analisi del panorama informatico mondiale se non partendo dal colosso di dimensione maggiore, Microsoft. Con un monopolio de facto per le mani, il più grande problema di Microsoft è quello di continuare a guadagnare abbastanza da mantenere in vita il gigante che rappresenta, con l’enorme difficoltà dell’essere fin troppo dipendente dal mercato: un’azienda infatti che rappresenta di per sé il 90% del mondo dell’informatica, non può non risentire anche della benché minima flessione del mercato. I consumi calano del 2%? Microsoft sta perdendo milioni di dollari. Ecco allora che diviene necessario adottare non solo le vecchie care strategia legate all’obsolescenza programmata (nella quale rientra per altro anche la questione OpenXML), ma anche attaccare frontalmente nuovi mercati (come ad esempio quello del web), già che quello dei sistemi operativi è saturo o in saturazione, dal punto di vista di Microsoft, e le vendite di Vista pesano come macigni.
    Così si spiega quindi l’idea di acquistare Yahoo!: sfruttare una realtà già esistente (benché pagata profumatamente) per acquisire d’un colpo struttura, prestigio, pubblicità e competenze, alla quale aggiungere poi miliardi di investimenti per fare una reale concorrenza al verò protagonista del mondo del web: Google.
  • Google: è il colosso in maggior espansione. Il mondo dell’informatica va sempre più rivolgendosi infatti verso il web, verso l’integrazione tra servizi e device più o meno mobili (il fenomeno del così detto “web2.0” ne è un esempio lampante) ed a Mountain View, da questo punto di vista, non possono che fare scuola: i servizi che Google offre si integrano perfettamente tra di loro (almeno in larga parte) e si continua ad investire pesantemente nell’acquisto di nuove promettenti piattaforme. Per quanto li riguarda, il periodo di espansione non è ancora terminato, e anzi i guadagni aumenteranno nei prossimi anni, con la sempre maggior incidenza della pubblicità online, la possibilità di offire personalizzazioni ai servizi già offerti gratuitamente al grande pubblico e via dicendo.
    Unica nuvola nel serenissimo cielo di Google è l’accordo tra Microsoft e Yahoo!, che potrebbe dare fastidio (non metterli in crisi, giusto una punturina d’insetto). Probabilmente anche per questo motivo Google ha osteggiato in diversi modi la trattativa, senza per altro poter realmente mettere il becco nell’affare: l’antitrust americana infatti non gli perdonerebbe una simile concentrazione di potere. Nel caso in cui la piattaforma Microsoft-Yahoo! dovesse realmente concretizzarsi, Google avrà bisogno di spingere decisamente verso una piattaforma analoga che includa il supporto di un sistema operativo completo: visto l’importante impegno di Google nel supporto e la promozione dell’opensource, viene naturale pensare a Linux (e nella fattispecie ad Ubuntu e Canonical).
  • Yahoo!: da parecchio tempo ormai nell’occhio del ciclone, il grande problema di Yahoo! si chiama indubbiamente Google. Combattere lo strapotere del colosso di Montain View sul campo dei servizi integrati, della ricerca sul web con una piattaforma analoga (seppure costantemente in lieve ritardo tecnologico) è una battaglia persa in partenza, e le cifre parlano chiaro. Tornata sulla bocca di tutti in seguito alla proposta di acquisto da parte di Microsoft (che avrebbe per altro potuto tranquillamente tentare un’OPA ostile), Yahoo! aveva in realtà già ottenuto un significativo risultato stringendo stretti legami di sinergia con un’altro importante player, Apple. Il servizio di push imap suggerito da Apple per l’iPhone 1.0 infatti era quello di Yahoo!, la sincronizzazione della rubrica tra l’iPod Touch e il web si può fare solo tramite il servizio di rubrica di Yahoo!, e in prospettiva altre strade di integrazione simile si vanno profilando (sempre che Apple non decida di mandare tutto a carte quarantotto chiudendo la piattaoforma MobileMe, cosa piuttosto improbabile).
    Indubbiamente grande valore a Yahoo! l’ha dato l’acquisto di Flickr, che le sta dando respiro, ma al situazione non potrà continuare in questo modo a lungo: se vuole sopravvivere, Yahoo! deve essere venduta (o fusa con un’altra realtà di pari prestigio) e sulla scia di questa operazione, si deve pesantemente investire, sia sulla piattaforma pubblicitaria sia sull’innovazione e l’integrazione dei servizi (il calendario di Yahoo! non esporta automaticamente gli eventi “pubblici” verso upcoming.com, vi sembra possibile?).
    Non è da escludere che Google stessa decida di sovvenzionare Yahoo! per scongiurare questa eventualità, magari proponendo semplicemente una sinergia tra le due piattaforme pubblicitarie, che compongono un mercato ancora troppo piccolo per essere oggetto delle attenzioni dell’antitrust…
    Nell’ipotesi invece che la vendita a Microsoft vada alla fine in porto (pare addirittura che da Redmond vengano pressioni affinché ci sia un cambio di cda e si prosegua la trattativa con interlocutori più accondiscedenti), il vero investimento dovrebbe essere quello di una forte (fortissima) integrazione tra il portale online di Yahoo! e il sistema operativo Windows, senza allo stesso tempo bruciare i rapporti esistenti con Apple: solo una piattaforma integrata di queste dimensioni infatti potrebbe seriamente infastidire Google.
  • Apple: è forse uno dei colossi dell’informatica che più mutamenti sta subendo. Da produttrice di computer dotati di sistema operativo, negli ultimi anni si sta trasformando in fornitrice di integrazione, soprattutto grazie ad iTunes e l’avvento del mito dell’iPod prima, dell’iPhone poi. Oggi tenta il colpaccio con l’introduzione della piattaforma MobileMe, che punta proprio ad ottimizzare e rendere concreta l’integrazione tra device mobili, pc e portatili. La strada è quella giusta, le pecche sono dovute essenzialmente all’ignorare piattaforme alternative che invece potrebbero garantire ulteriore successo proprio ad Apple (Linux su tutte) e con la scarsa (per non dire nulla) sinergia con Google, che invece potrebbe svincolare Apple dal rapporto avviato con Yahoo! che potrebbe tentare di monopolizzare questo ambito per tentare una via d’uscita dalla crisi in cui si trova.
  • Nokia: di quelle citate, è indubbiamente l’azienda che ha maggior esperienza per quel che riguarda le device mobili. Famosa per i cellulari, ha recentemente fatto importanti acquisti sul panorama del software libero (acquistando ad esempio Trolltech, o acquistando e proponendosi di rilasciare Symbian), una mossa accorta nel momento in cui il mercato delle device mobili si espande e cambia come non mai. Probabilmente l’iPhone fa paura: le possibilità che offre grazie alla stretta integrazione con il web e con il pc, l’interfaccia ben studiata e concepita, il design accattivante, sono tutti aspetti che i produttori di cellulari (e palmari) non hanno mai saputo accorpare in un unico prodotto, nonostante i vari tentativi, e che invece Apple ha saputo imbroccare al primo serio tentativo. Ora la voragine aperta va riempita: lo spazio c’è ma bisogna muoversi ad occupare gli spazi e Nokia è il candidato ideale per integrarsi insieme a Google e Linux in una piattaforma da contrapporre a quella che potrebbe vedere riunite Apple, Microsoft e Yahoo!

L’obiettivo di questo post, come potete immagianare, è proprio quello di scatenare discussione. Le congetture del tutto infondate riportate qui sopra sono il mero frutto della mia mente malata, ma potrebbero incastrarsi in un ipotetico puzzle, a disposizione di coloro che volessero cogliere qualche spunto per proporre una propria visione…

“Ultima spiaggia” liveCD

dscf1266.jpg Mi era già servito tempo addietro (per riesumare un server davvero conciato e recuperare almeno i dati che ci stavano sopra), e continua ad esserci nella mia borsa del portatile, in una custodia con su scritto “Piano B” (che vedete nella foto).

Si tratta di un liveCD linux, basato su Gentoo, in grado di fornire tutta una serie di importanti strumenti per il recupero e l’analisi (forse non quella di sicurezza) di un sistema. Uno strumento assolutamente fondamentale.

Mi premeva segnalare la recente uscita della versione 1.0.0, che sta in meno di 200Mb (volendo la si può facilmente installare anche su una chiavetta usb) e che presenta software aggiornato ed una lunga serie di utili strumenti. Non andate più in giro senza! 😛

Ecco la novità: il laptop

macbook-air.pngPosso essere sincero? Sono deluso. Non che il MacBook Air non sia un prodotto valido, o interessante. Ci mancherebbe altro. Solo (forse assuefatto dall’immaginazione degli ingegneri di Apple) mi sarei aspettato qualcosina di più, qualcosa di più distante da quanto già è disponibile sul mercato.

In ogni caso, venendo al dunque, Steve Jobs ha lanciato la novità del 2008, dal palco del suo annuale keynote: il portatile ultrapiatto MacBook Air (del quale si era già ampiamente parlicchiato in giro per la rete nei giorni che hanno preceduto l’apertura del MacWorld 2008). Processore Intel (appositamente miniaturizzato per l’occasione) da 1,5 Ghz (disponibile fino a 1,8 Ghz su richiesta), spessore variabile tra i 2 centimetri a 5 millimetri, display da 13 pollici, webcam, bluetooth, wireless, disco rigido da 80 Gb (su richiesta è disponibile anche allo stato solido, da 64Gb), 2 Gb di ram e un’autonomia che dovrebbe sfiorare le 5 ore, il tutto in meno di un chilo e mezzo di peso, ne fanno un prodotto di altissima tecnologia (ed il prezzo, che si assesta sui 1800$) che sicuramente non tarderà a diventare oggetto del desiderio di molti “tecnologi”, ne più ne meno di quello che fece l’iPhone lo scorso anno (ne sono stati venduti 4 milioni in 6 mesi…).
Voler essere sottili però, comporta dei compromessi. Niente unità cd/dvd ad esempio (è disponibile un’unità superdrive esterna, con un costo aggiuntivo di 99$, ma allora la comodità va a farsi friggere…), niente porte ethernet (in Italia il wireless non è diffuso come negli USA…), una sola USB (mouse o pendrive? Doh…), niente FireWire…
Se poi lo paragoniamo ad un MacBook, le cose diventano imbarazzanti: 650 euro per poco più di un chilo di peso e pochi millimetri di spessore, con un processore più lento e l’assenza di un lettore/masterizzatore cd/dvd integrato… Fosse stato ancora più piccolo, avrebbe avuto un senso, ma così…

Le altre novità non sono in ogni caso di scarso rilievo: film (anche ad alta definizione) disponibili su iTunes e il rilancio della Apple TV (vero flop del 2007 per Cupertino) che proprio dall’interazione con iTunes dovrebbe trarre il suo più grande vantaggio. Sicuramente l’aver già portato a casa l’accordo con 20th Century Fox, Warner Bross, Disney, Universal, Sony Pictures e Paramount, ed il costo irrisorio (tra i 3 ed i 4 dollari a titolo, a seconda della novità) da qualche (seria) garanzia del fatto che un futuro, questa idea, possa averlo.