Interessante post qui sulla vicenda Ferguson di un Prof. turco di Princeton (che fa un parallelo con cio' che accade in Turchia)
Ferguson is about many things, starting first with race and policing in America.
But it’s also about internet, net neutrality and algorithmic filtering.
<da leggere>
Penso che ponga in modo rilevante la questione dell'esenzione di responsabilità prevista dalla direttiva ecommerce.
scrivevo nel 2009:
tagging, classificazione, ranking, ecc possono essere una attività di "mere conduit" ? dove si ferma il trattamento automatico possibile da parte di un sistema perche' esso sia un "mere conduit"?
prima, quando certe "analisi" di contenuto potevano essere fatte solo da umani, era più facile tracciare la linea.
costruire un servizio che esaminasse dei contenuti e proponesse contenuti specifici illeciti era una attività che richiedeva intervento umano e quindi era facilmente individuabile una responsabilita editoriale che poteva essere perseguita in caso di illecito (per esempio un sito che promuova l'odio razziale o l'abuso di stupefacenti).
oggi, strumenti automatici possono produrre gli stessi risultati (anche su scala assai maggiore, trascendendo le capacità umane) grazie alla analisi semantica, il riconoscimento della voce, il riconoscimento di forme, volti, attributi, possibilità di correlazione, indicizzazione, classificazione, ecc. e potrebbero essere programmati per produrre lo stesso output senza intervento umano.
questo sarebbe sufficiente per dire che una entità che beneficia economicamente di questa attività è solamente un "mere conduit" ? solo perchè nessun umano è coinvolto nel processo ?
secondo me era fondato allora ma forse non lo capivamo...
adesso mi pare evidente... se c'e' un software che analizza i contenuti per farne elaborazioni a partire dal contenuto, deve essere valutata la possibilità di responsabilità editoriale.