Archivi tag: security

Un’estensione per la privacy online?

seleneQuesta mattina un cliente mi ha scritto una mail segnalandomi un interessante (e lodevole per qualità e completezza) articolo del Corriere, che spiegava quali tecniche si possono utilizzare per navigare “al sicuro” dalla profilazione da parte di Google (o in ogni caso da parte degli altri operatori della rete). Mi occupo, purtroppo, di privacy e sicurezza online da troppo tempo per credere che basti un’estensione di firefox per “navigare sicuri”.

Colgo allora l’occasione della risposta inviata per riportare un’analisi delle tecnologie riportate nell’articolo anche in queste pagine, perché nonostante l’articolo sia interessante e non fondamentalmente errato (anzi), penso che un po’ di precisazioni in materia possa essere d’aiuto per coloro che abbiano letto quell’articolo (soprattutto, che possa contribuire ad innalzarne il livello di paranoia :P).
Per coloro che invece fossero interessati ad approfondire anche tecnicamente l’argomento, consiglio vivamente il libro di Zalewski recensito su queste pagine qualche giorno fà, assolutamente abbordabile anche per coloro che non fossero proprio esperti in materia di informatica (Zalewski dimostra in questo libro una chiarezza davvero sorprendente per un tema così complesso).

Tanto per cominciare, è indubbio che sia è impensabile smettere di usare Google per evitare di essere da esso profilati. Non tanto perché è uno strumento completo e funzionante (esistono altri motori di ricerca, naturalmente, che fanno egregiamente il loro mestiere), quanto perché con una penetrazione in rete che sfiora l’80% (tra referrer e link su pagine che contengono script javascript che fanno capo a Google, su tutti AdSense e Analitycs), è ben difficile, tecnicamente parlando, aggirarne i tentacoli.

Cominciando poi dalle cose meno utili, breve accenno all’estensione scroogle: sposta banalmente il problema da Google ad un’altra entità (meno affidabile per altro, visto che non è così grosso ed importante da essere soggetto alle leggi di scala a cui invece si trova ad essere esposta l’azienda di Montain View), facendo filtrare tramite quest’ultima le richieste al Grande Motore. Se posso pensare di dare io la mia fiducia a Daniel Brandt (che “nel giro” gode certamente di una fama non indifferente, visto l’ottimo lavoro condotto da Google Watch) non si può certo pensare che per vincere la (sana) paranoia da tracciamento, spostare il target in questa direzione possa sortire qualche effetto.

Sicuramente più valida è l’opzione di usare in maniera correlata Tor e Privoxy, che insieme sono in grado di rendere effettivamente casuali la provenienza delle varie richieste nei confronti del web, rendendo inutili le tecniche di tracciamento fatte tramite cookie et simili. Una trattazione approfondita della tecnologia di Tor sarebbe fuori luogo in questo frangente, quindi lascerò l’approfondimento alla vostra discrezione: dirò solo che oltre all’esposizione ad un uso sbagliato di questa tecnologia (che ne vanifica l’utilità) gli utenti meno esperti, l’uso di Tor ha come suo punto debole i punti d’uscita della rete di “randomizzazione”, aspetto sul quale sono in corso alcune interessanti ricerche.

Analogamente, l’idea proposta da Track Me Not è indubbiamente interessante (e per altro incarna una delle strade che si stanno battendo proprio in questi mesi per combattere la profilazione): generare richieste “random” al motore di ricerca di turno per tentare di camuffare le richieste reali tra una certa quantità di “rumore” casuale è indubbiamente valida: il problema sta tutto nel riuscire a rendere credibili (e non distinguibili da quelle  reali) le richieste generate dall’estensione. Il fattore “caso” infatti è una delle cose più complicate da riprodurre tramite un computer, mentre viene spaventosamente bene ad un essere umano: quanto difficile sarebbe “filtrare” le richieste dell’estensione se venissero fatte a cadenza regolare, o con un generatore di numeri non sufficientemente casuale, o avessero un pattern di ricerca banale, riconoscibile, o semplicemente poco attinente con la tipologia media delle ricerche dell’utente? Analogamente, quanto difficile è riconoscere una persona mascherata a partire dalla voce, dal modo di muoversi, dai comportamenti? Questo è l’aspetto difficile del gioco, non certo la generazione di rumore…
La soluzione potrebbe essere nella generazionen di un pool remoto di pattern di ricerca (a cui ognuno dovrebbe contribuire inviando automaticamente le proprie) che possa essere poi replicato da tutti gli utenti che usino quella stessa estensione, introducendo un reale rappordo di casualità nella generazione dei pattern di ricerca. Rimarrebbe il problema della temporizzazione delle richieste “false”, ma sarebbe già un problema minore.

In questo modo cerca di agire, per quel che riguarda i cookies di tracciamento, da un’altra estesione interessante segnalata dall’articolo, Scookies (non per niente scritta dal buon Bakunin): questa estensione è effettivamente in grado di vanificare il tracciamento fatto a mezzo cookie, scambiando i cookie dei vari utenti in modo dinamico. Analogamente al caso di Tor/Privoxy però, questa tecnica è si in grado di rendere vano l’uso dei cookie di tracciamento, ma lascia aperte altre strade che rischiano di vanificare tutto il lavoro fatto (analogamente, in un certo senso, al rifiuto banale di usare i cookie, funzionalità già disponibile in moltissimi browser).

Con un po’ di attenzione e poca fatica infatti, si potrebbe differenziare comunque i vari utilizzatori indipendentemente dal cookie di tracciamento, facendo riferimento ad esempio a pattern ripetitivi di ricerche (difficile che il sottoscritto si trovi a fare ricerche su certi argomenti, molto più facile che cerchi qualcosa che riguardi l’informatica), alle temporizzazioni, al fetch dei dati dalle cache.
Quest’ultima tecnica è a mio avviso il vero problema chiave da risolvere nei prossimi anni per quel che riguarda la privacy online: ogni browser infatti è sperimentalmente identificabile a seconda dei dati che ha memorizzato tra i “files temporanei” (la cache appunto). Se un utente ha visitato una certa pagina in un certo momento, in cache verranno salvati certi files (con certi orari) e non altri. Se invece l’utente ha già visitato la pagina, il browser non richiederà tutti i files, ma solo alcuni (quelli che non ha in cache, o quelli che sono marcati come “non cachabili”); l’analisi di quali files sono richiesti, in quale ordine, con quali parametri (ad esempio la richiesta potrebbe arrivare per un file “solo se non è stato modificato dalle ore 23:53 del 24/08/2008”, rendendo facilmente identificabile addirittura l’ora di ultima visita di quello specifico utente), è in grado non solo di correlare le varie sessioni di uno stesso utente indipendentemente dal cookie di tracking, ma addirittura identificare la tipologia di browser che utilizza (ad esempio analizzando l’ordine con cui vengono richiesti i vari files che compongono una pagina web, che differisce da browser a browser, come Zalewski dimostra nel libro precedentemente citato).

Tutto questo senza considerare che è sperimentalmente dimostrato che si è oggi in grado di identificare un utente (perfino remotamente) dal modo con cui digita sulla tastiera (al punto che un’università americana ha messo a punto un sistema di login biometrico che si basa proprio su questo genere di analisi): velocità di battitura, errori più comuni, temporizzazioni.

Insomma, alla fine della fiera si torna sempre allo stesso concetto: quando si vuole difendere qualcosa, bisogna controllare tutto il fronte. Quando si attacca, basta trovare una falla, una dimenticanza…

Moca due, Moca uno… hack!

Ebbene si, anche io sarò al Metro Olografix Camp, a Pescara, da giovedi 21 a domenica 24 agosto, in mezzo a tanta bella e simpatica gente del mondo dell’informatica nazionale (e non). Ci andrò in auto, in più che pregevole compagnia: con me ci saranno infatti (zaino, sacco a pelo e tenda bel baule della povera Panda, che macinerà così un altro migliaio di chilometri) bardo e birdack, che posso modestamente annoverare tra i miei più cari amici.

Il secondo Moca della storia (il primo si svolse 4 anni fà, in occasione del decimo compleanno di Metro Olografix) stato annunciato già da qualche tempo (anche se in ritardo rispetto ai bisogni logistici di qualcuno, che si troverà in ferie ben lontano da Pescara, in concomitanza con questo rado evento ;]), ma non c’è giorno che passi senza una qualche sorpresa: l’ultima in ordine cronologico l’ha battuta quest’oggi Mayhem, che (mentre già fervono i preparativi) ha annunciato la presenza alla manifestazione niente popo di meno che di John Draper (alias Captain Crunch).
In più, come al solito, sarà un’ottima occasione per parlare seriamente di informatica e di sicurezza e per rivedere un po’ di amici che sparsi per l’Italia si occupano di questa materia.

Che aspettate a preparare le valigie (e ad iscrivervi)?

Un altro colpo di LK

Lastknight playing.... Matteo Flora, aka LastKnight, non è certo ignoto a chi bazzica nel mondo della sicurezza informatica italiana. Non è nuovo neppure allo scoprire falle (di vario genere), anche in siti web piuttosto noti, o delicati.
L’ultimo colpo, di cui si è avuta notizia da Punto-Informatico questa notte, è di quelle che mettono i brividi: “cross site scripting” con accesso ai dati di Comune di Milano, Rosso Alice e (nientepopodimenoche) Camera dei Deputati.

Interessante la replica di Alessandro Musumeci (direttore dei Servizi Informativi del Comune di Milano), che si trova coinvolto nell’ennesima rogna (dopo quelle dei sistemi ballerini dei primi giorni dell’Ecopass, ad esempio), che parla di “più fondi” e di “riprogettazioni in corso”. Tutto sicuramente vero, ma (aggiungo io nella mia ignoranza), un passo fondamentale è progettare da buon principio i servizi in modo che tengano in mente il problema della sicurezza, e farlo per il dovere di farlo, non per far bella figura all’Expo 2015.

Tornando a Matteo, però, una piccola anticipazione la voglio lanciare (visto che mi ha dato il permesso di farlo, ieri sera :P): da lunedì, proprio Matteo terrà una rubrica su Punto Informatico dedicata alla (in)sicurezza informatica, andando ad aggiungere ulteriore prestigio alla squadra di “stelle” che scrivono per il noto portale di informazione diretto da Paolo De Andreis, tra i quali troviamo già gente del calibro di Marco Calamari.

E le novità, da quel poco che posso capire, non sono finite. Stay tuned… 😛

Mi cascano le braccia

virus Quando ieri mattina sono finito di fronte a questo articolo del Corriere della Sera, avevo pensato ad un hoax (non sarebbe certo la prima volta che un giornale ne pubblica uno). Non so se ci sia lo zampino di qualche burlone, ma per qualcuno che di sicurezza informatica qualcosa ne capisce (ma anche chi no, come il sottoscritto), appaiono lampanti una serie di strafalcioni davvero allucinanti. Mi limiterò a quelli principali, per non portare via troppo tempo ai lettori, che sicuramente avranno di meglio.

  1. Non è vero che “non assistiamo da un po’ ad un attacco di un virus informatico su vasta scala” perché è in corso (da anni poi) un altro genere di attacco informatico. Molto più semplicemente, la diffusione dei software antivirus e la disponibilità della banda larga (e quindi di aggiornamenti più pronti) ha fatto si che alle larghe epidemie si sostituiscano epidemie più limitate nella durata (e quindi nella diffusione), ma in numero maggiore.
    Inoltre l’abitudine (seppur poca) degli utenti a distinguere le mail di spam o virus da quelle originali (aiutati sotto questo profilo anche dal perfezionarsi dei sistemi antispam), aiuta ulteriormente la riduzione delle infezioni.
  2. Exploit” in sé non è “il nome della nuova minaccia“. Il bello è che la definizione riportata dalla pagina di Wikipedia (“un exploit è un termine usato in informatica per identificare un metodo che, sfruttando un bug o una vulnerabilità, porta all’acquisizione di privilegi o al denial of service di un computer“) è pure li, copiata ed incollata pari pari in testa all’articolo (terza riga), e invece tre righe dopo il significato di “exploit” cambia, diventando “nome proprio” della minaccia. Il concetto torna in gioco poche righe più tardi, con la frase “il fenomeno exploit ha già infettato oltre 70 milioni di pc nel mondo“: inutile dire che gli exploit (per definizione) non provocano un’infezione, al limite aprono la strada. E’ come dire che “l’aria sta in questi giorni infettando gli italiani, dopo che l’influenza ormai è da archiviare come tipologia di epidemie superata”.
    Alla fine dell’articolo, ovviamente, l’exploit diventa una “nuova tipologia di virus”: camaleontico questo exploit!
  3. Interessante la teoria secondo la quale gli “exploit” rappresentino una “nuova categoria” di attacchi informatici, “che non opera secondo le modalità terroristiche dei virus attivi fino a 4-5 anni fa” (e quelli che abbiamo visto girare fino a ieri, cos’erano?), i quali “distruggevano il contenuto degli hard disk o della posta elettronica o che bloccavano o cancellavano le pagine web di siti celebri” (o, aggiungerei io, più spesso si spedivano in giro per la rete, magari sottoforma di messaggi di posta elettronica composti a partire da quelli esistenti, con evidente perdita di dati sensibili). La domanda sorge spontanea: se non sfruttando degli exploit, come si introducevano quei virus “terroristici” all’interno dei client degli utenti? Con la forza del pensiero o con il teletrasporto?
  4. Molto bella e pittoresca l’immagine dell’exploit Arsenio Lupin che rimane nascosto (dove non si sa) per mesi (in attesa di?), prima di attaccare fulmineo e “rubare tutti i dati sensibili” (come se non ci pensassero già le migliaia di malware che ogni utente windows/internet explorer accumula quotidianamente andandosene in giro per il web).
  5. La drammatica descrizione, poi, dei danni che questo nuovo “tipo di virus” sarebbe in grado di arrecare, è davvero carina: nel caso in cui nel pc non ci siano dati sensibili da cui ricavare denaro (tipo numeri di carte di credito), il virus “corromperà le tradizionali ricerche effettuate sui più noti motori di ricerca , per portare il navigatore in siti già infettati o in siti copia di siti esistenti, dove l’utente ignaro consegna i dati della propria carta di credito convinto magari di fare acquisti in un sito affidabile“. Phishing questo sconosciuto? Eppure è un fenomeno che (almeno i giornalisti chiamati a scrivere di informatica) dovrebbero aver ormai assimilato…

L’impressione, alla fin della fiera (e preso atto delle continue citazioni a Grisoft, AVG, alla sua nuova “beta 8” ed alle funzionalità di Safe Search e Safe Surf che guarda caso proprio questo software incorpora), è che si tratti di uno spudorato tentativo di lancio commerciale tramite un articolo (magari nemmeno voluto) e messo in mano a qualcuno che della questione ha capito poco…

Dal Corriere, onestamente, mi aspettavo qualcosa di più…

Non hanno ancora capito…

Non hanno ancora capito. Eppure è facile, soprattutto se pretendi di lavorare “nel campo”… e invece, zero: Microsoft non ha ancora capito che “sicurezza di un sistema” e “numero di patch pubblicate” non sono due fattori direttamente proporzionali.
Ancora in questi giorni, è stata pubblicata sul blog di Jeff Jones una ricerca (condotta da un team di Microsoft, ndr) secondo la quale Vista è più sicuro di XP, relativamente al suo primo anno di distribuzione. E fin qui, nulla da obiettare: se non fosse stato questo il risultato, ci sarebbe seriamente da chiedersi che cazzo sono pagati a fare, a Redmond, o no?

La cosa che mi fa girare gli emenicoli, invece, è che la ricerca come al solito non si limita a fare un paragone tra i due sistemi controllati da Microsoft, ma cerca di menare qualche “picconata” alla concorrenza, ricadendo nella solita “figura di m”. Infatti dalla ricerca si evince che Vista (ma anche lo stesso XP) è decisamente più sicura di Red Hat Linux, Ubuntu 6.06LTS nonchè (naturalmente) Apple MacOS X. Tutto questo, basandosi sul matematico conteggio settimanale degli aggiornamenti “di sicurezza” (spero che abbiano almeno filtrato i soli aggiornamenti di sicurezza!).

A dimostrazione che la teoria di Microsoft non sta in piedi, ci pensa Secunia (“indipendente”, magico suono…). Qui troviamo la pagina dedicata alle vulnerabilità trovate in Windows Vista, mentre qui troviamo quella relativa a Ubuntu 6.06 LTS (se volete confrontare i dati anche di Apple MacOS X e RedHat Enterprise Linux 4 WorkStation, li trovate rispettivamente qui e qui).

Cominciamo dal numero di vulnerabilità rilevate. A parte il mese di dicembre (dove evidentemente, durante le feste ed a causa del freddo, gli analisti di sicurezza hanno concentrato i propri sforzi su Vista), le vulnerabilità rilevate su Windows Vista sono effettivamente numericamente inferiori a quelle di Ubuntu. Inutile dire che Ubuntu porta con se una quantità di software non indifferentemente maggiore di quella che si porta dietro Windows Vista: nella ricerca in effetti, si fa riferimento ad un “reduced software set” che tenga conto di questo “dettaglio”, peccato che poi le vulnerabilità conteggiate a Ubuntu 6.06 da Microsoft siano 224 contro le 134 rilevate da Secunia. Tralasciamo e proseguiamo.

Anche la tipologia delle falle rilevate è importante. Ci sono infatti falle che compromettono l’intero sistema, altre che invece possono portare al più al crash di una certa applicazione. Sotto questo profilo, possiamo rilevare che di falle dichiarate “estremamente”, in Ubuntu, non ce ne siano, mentre quelle “molto” critiche siano al 21%. Per Vista invece, di falle “estremamente” critiche, ce ne sono il 6%, al quale si deve aggiungere un 41% di falle “molto critiche”. Certo i numeri non sono dalla parte di Vista, dato che in totale, quel 47% di falle “estremamente e molto” critiche sono numericamente parlando solamente 8 falle, mentre in Ubuntu il 21% di falle “molto” critiche raggiunge le 28 unità.

Potrei dilungarmi ancora sulla possibilità di fruttare o meno da remoto una certa vulnerabilità (questione sulla quale, per inciso, dirò che Vista si comporta sorprendentemente bene), o sull’impatto di queste vulnerabilità sul sistema (aspetto sul quale invece Vista si rivela piuttosto sensibile), ma non lo farò così in dettaglio. Infatti, falle o non falle, pericolose o meno, alla fine il succo del discorso è che, a prescindere dal numero degli aggiornamenti, è importante la qualità del lavoro fatto (ossia: la patch risolve o meno il problema?). Sotto questo aspetto, il grafico presentato da Secunia è piuttosto eloquente: in Vista persiste, al 1 gennaio 2008, una vulnerabilità non corrette, mentre in Ubuntu tutte le falle segnalate sono state corrette, che siano più numericamente maggiori o meno di quelle di Vista.

Naturalmente il discorso potrebbe essere allargato anche a Red Hat Linux e Apple MacOS X, ma non era questo il mio intento: volevo semplicemente far vedere come a volte, fare demagogica propaganda per il gusto di farla cercando di affossare i propri avversari, non porta a grandi risultati. Se Jeff si fosse limitato a dire che Vista è più sicuro di XP, avrei anche potuto applaudirlo. Ma il marketing è marketing, e se lui non resiste alla tentazione di spalare palle sul conto degli altri “player” del mercato, io non farò sforzi per resistere alla tentazione di smontare le cose che dice…

PS: ahm… vale far notare che Vista è uscito il 30 gennaio 2007, e quindi è “in corso di diffusione”, mentre Ubuntu 6.06 è uscita (per l’appunto) a metà 2006 e quindi è già decisamente “diffusa”, o è colpire sotto la cintura?

Capture the flag!

ctf-results.pngErano anni che mi veniva proposto di partecipare a “Capture the flag“, il noto contest internazionale di sicurezza informatica. Più per poca fiducia nelle mie competenze tecniche in fatto di sicurezza informatica applicata che per mancanza di tempo, avevo sempre nicchiato ed evitato. Quest’anno invece, ho ceduto all’insistere di Danilo e Stefano, e alle 19 mi sono presentato al DEI, armato di portatile, pronto a tirare le due di notte insieme agli altri membri del team “The Tower of Hanoi” il cui passato glorioso non poteva che mettere soggezione ai diversi nuovi arrivati.

Dopo qualche minuto di disorientamento (la competizione era già iniziata quando sono arrivato, trattenuto da impegni di lavoro, per cui tutti erano troppo concentrati sui propri compiti per spiegare l sottoscritto i rudimenti necessari anche solo per accedere al sistema di test), ho attaccato la sezione dei quiz, insieme alla persona che mi stava vicino. Entrare nell’ottica del gioco non è stato semplice, ma il mio principale contributo, alla fine della serata, è stato la soluzione del seguente contest:

Dato un “key_validator”, era necessario trovare la “chiave” per ottenere il testo decifrato. Dopo un po’ di analisi, abbiamo appurato che si trattava di php offuscato, senza tag di apertura e chiusura, con una serie di complicazioni atte ad evitare che potesse essere lanciato ‘as is’. Il lavoro di “de-offuscamento” ha preso qualche tempo, e alla fine il codice derivante altro non faceva che uno xor tra un testo ed una chiave (encodata base64), generando una parte di codice php, che veniva poi eseguito passando un parametro via $_GET.

<?php

$key = "Hr5yvogypL";
$code  = "LgdbGgIGCBdQLyAXVhIpCxUULyctCx1dBg";
$code .= "4eFR8tLFtOWVYGAVlYaBc1cC0tTQwcCW4V";
$code .= "TwhMQVZeSUF+YQkVWVZPAhoYI2hSFzBWBR";
$code .= "IKBGwgE1FZF08LEAQ4JBcVHRMFBlkGOWpJ";
$code .= "FVkLT0ccHD8tUhVZDU9HWVApKxpaWyEdCB";
$code .= "cXbBgTRxgbChMcAm5zUhUEVhIBDB4vPBtaF";
$code .= "1YKHxwTOTwXHV0GDh4VHy0sW05ZVk9HGhgp";
$code .= "KxlqHQQCOBIVNWBQF1BNTxoLFTg9AFtZVAo";
$code .= "fHBM5PBcXQg==";

$code = base64_decode($code);

for( $j = 0 ; $j < 214 ; $j++ ) {
    $code[ $j ] = $code[ $j ] ^ $key[ $j % 10 ];
}

$result = eval( $code );
$result( $code );

?>

La soluzione paradossalmente è stata chiara nel momento in cui abbiamo inserito una print_r in una serie di punti del codice, tirando fuori il codice contenuto in quella che avevevamo chiamato $code.

Alla fine della gara (le 2:00 in Italia), ci siamo classificati settimi su trentasei squadre partecipanti, con un punteggio tutto sommato discreto. I miei personali complimenti vanno naturalmente ai vincitori (di gran lunga tra l’altro!), i “cioccolatai”, dell’Università degli Studi di Milano. Il CTF, anche quest’anno, è in Italia.

Finalmente due minuti…

Finalmente riesco a ricavarmi due minuti per scrivere sul blog… Non che non abbia niente da fare (figuriamoci) ma semplicemente il prossimo “step” può essere rimandato di qualche minuto.
Gli impegni sono soprattutto lavorativi ed associativi, ma si accavallano gli uni sugli altri al punto da non lasciare tregua. Ho passato tutto il tempo libero delle ultime giornata lavorando al bugfix di Geson, lo strumento di gestione integrata dei soci di OpenLabs, che era dismesso ormai da un paio d’anni (da quando è stato scritto praticamente). Ora esegue correttamente le ricerche in base alla tipologia di socio e stampa il formulario di iscrizione/rinnovo direttamente dall’interfaccia. Prima, ho lavorato ad una nuova versione delle slides sul “Man In The Middle”, aggiungendo un paio di informazioni aggiuntive e rivedendo i concetti espressi (malamente devo dire) 2 anni fa (le slides sono qui), ed esposto il tutto lunedi sera in Sede. Martedi sera è stato il turno dell’ultima lezione del corso “Primo livello”, che ripartirà poi il 20 di marzo con un’altra, se non due, nuove sessioni, in parallelo praticamente ad una, se non due, sessioni del corso “Secondo livello” di cui il materiale è tutto da produrre.

In piu c’è tutto il lavoro di preparazione dell’Assemblea dei Soci che si terrà il 12 aprile. Modifiche statutarie, relazioni sugli eventi, corsi e sistemi (di cui sono responsabile io), le convocazioni da fare…

A questo, si aggiungono l’organizzazione dell’uscita sociale del 17 marzo (visita all’Osservatorio Astronomico di Castione della Presolana con cena “locale”), la preparazione di quel che dovò raccontare il 16 al TGIF (che devo preparare, se no…)…

Ovviamente questo per quel che riguarda la sola associazione
Per quel che invece riguarda il lavoro abbiamo: seguire i diversi clienti in giro per la Lombardia (in questo momento mi trovo a fare presidio a Magenta, con 3 macchine infettate da un trojan di cui bisognerà comprendere i meccanismi di funzionamento e rimozione), nuovi e vecchi clienti che reclamano le giuste attenzioni, la sperimentazione sul VoIP… insomma… un casotto.

In piu, c’è il sole fuori, e avrei voglia di andarmene in giro in bicicletta, giusto per far svegliare le zampe che sono sostanzialmente ferme praticamente da fine ottobre…

E per fortuna che non sono ancora cominciati i corsi in Università…

Aggiornato: “I Denial of Service”

Ho aggiornato la presentazione sui Denial of Service in vista dell’evento di questa sera in OpenLabs, che sarà oltretutto il primo ad essere trasmesso in streaming dalla sede.

E’ stata una buona occasione per rivedere qualche concetto ed apportare qualche correzione principalmente dovuta alla maggior esperienza accumulata in questi ultimi anni su reti e formazione.

Inoltre, dopo aver letto un interessante case report su un attacco DRDoS, ho ritenuto opportuno inserire questo tipo di attacchi tra quelli trattati dal talk.

Talk in OpenLabs: Denial of Service

Lunedi 12 febbraio terrò in OpenLabs una presentazione dedicata agli attacchi di tipo “Denial of Service”.

E’ stata una buona occasione per rivedere (ed ampliare ) qualche concetto legato a questa metodologia di attacchi, introducendo tra l’altro gli interessanti attacchi DRDoS.