« Stefano Rodotà sui diritti nella network society a Milano | Principale | Google chiede un mandato per dare la mail edgli utenti alle agenzie USA »

27/01/2013

Commenti

Anonimo codardo

Mah.. su moli di dati così grandi: dividi in chunck di n MB più meno fissi, ne fai l'hash e vedi se qualcun altro ha un chunck con lo stesso lo stesso hash; se sì ne tieni una copia sola. Algoritmo da complicare a piacere per evitare collisioni, distribuzioni su N server e gestire il fatto che i chunk sono dati cifrati (sulla carta) e i comuni hash non funzionino molto bene.

Mi pare che in quel modo non ci sia bisogno di sapere cosa ci sia effettivamente nel chunk.

Dino Bortolotto

se lo dovessi fare io terrei criptato solo il modo con cui i chunck si devono ricomporre ed a chi debbano essere assegnati, detto in altri termini il gestore sa solo che quei chunck sono di qualcuno ma non sa dire di chi sono e non sa con quali altri chunck si debbano ricomporre per formare un file

Marco M.

«MEGA indeed uses deduplication, but it does so based on the entire file post-encryption rather than on blocks pre-encryption. If the same file is uploaded twice, encrypted with the same random 128-bit key, only one copy is stored on the server. Or, if (and this is much more likely!) a file is copied between folders or user accounts through the file manager or the API, all copies point to the same physical file.»

Se non ho capito male (non sono un tecnico), solo se il file è stato caricato dallo stesso account, e dunque crittografato con la stessa chiave, allora non viene duplicato.

I commenti per questa nota sono chiusi.