Interessante post qui sulla vicenda Ferguson di un Prof. turco di Princeton (che fa un parallelo con cio' che accade in Turchia)
Ferguson is about many things, starting first with race and policing in America.
But it’s also about internet, net neutrality and algorithmic filtering.
<da leggere>
Penso che ponga in modo rilevante la questione dell'esenzione di responsabilità prevista dalla direttiva ecommerce.
scrivevo nel 2009:
tagging, classificazione, ranking, ecc possono essere una attività di "mere conduit" ? dove si ferma il trattamento automatico possibile da parte di un sistema perche' esso sia un "mere conduit"?
prima, quando certe "analisi" di contenuto potevano essere fatte solo da umani, era più facile tracciare la linea.
costruire un servizio che esaminasse dei contenuti e proponesse contenuti specifici illeciti era una attività che richiedeva intervento umano e quindi era facilmente individuabile una responsabilita editoriale che poteva essere perseguita in caso di illecito (per esempio un sito che promuova l'odio razziale o l'abuso di stupefacenti).
oggi, strumenti automatici possono produrre gli stessi risultati (anche su scala assai maggiore, trascendendo le capacità umane) grazie alla analisi semantica, il riconoscimento della voce, il riconoscimento di forme, volti, attributi, possibilità di correlazione, indicizzazione, classificazione, ecc. e potrebbero essere programmati per produrre lo stesso output senza intervento umano.
questo sarebbe sufficiente per dire che una entità che beneficia economicamente di questa attività è solamente un "mere conduit" ? solo perchè nessun umano è coinvolto nel processo ?
secondo me era fondato allora ma forse non lo capivamo...
adesso mi pare evidente... se c'e' un software che analizza i contenuti per farne elaborazioni a partire dal contenuto, deve essere valutata la possibilità di responsabilità editoriale.
onestamente, un software che effettua delle scelte "imposte" da chi lo ha scritto è di fatto una scelta editoriale precisa.
si possono usare gli algoritmi più sofisticati, ma alla fine si dovrà fare una scelta basata sul peso delle correlazioni ed agire di conseguenza.
un software lo fa in automatico ovvero seguirà sempre la linea editoriale impostagli.
Scritto da: Vincenzo | 23/08/2014 a 13:53
tema delicato perchè un algoritmo può avere comportamenti DETRMINISTICI ma anche DECISAMENTE NO! devo forse ricordare la teoria della computazione, il terorema di incompletezza di Godel o la impossibilità di stabilre meccanicamente la correttezza formale di un programma?
NON E' un caso che qualsiasi produttore di software (algoritmi) declini OGNI responsabilita circa le conseguenze della esecuzione del proprio software ed al massimo assuma un obbligo a correggere i bug SE E QUANDO si manifestano!!
quindi EX POST e non EX ANTE in termini giuridici.
SE l'algoritmo (ovviamente non banale) ha seguito la linea editoriale per gli input dati lo sai SOLO DOPO l'esecuzione dell'algoritmo su quell'insieme di input e con un dominio degli input NON FINITO le conseguenze mi pare siano ovvie anche senza scendere nella dimostrazione formale .... (problemi formali ampiamente esplorati negli anni 60)
detto in altri termini mettere in capo "sic et simpliciter" all'elaborazione algoritmica le "responsabilità editoriali" dell'esecutore dell'algoritmo equivale ad determinare il ritorno immediato alla elaborazione manuale dell'informazione ... uhmmm non mi sembra sia un gran risultato per la libertà d'informazione della stragrande maggioranza dei cittadini ... magari invece lo è per quei pochi privilegiati che vorrebbero una informazione da loro completamente pilotabile/configurabile :-) (cosa che con una circolazione lenta e manuale dell'informazione riesce molto meglio)
Comunque è un tema che con le dovute cautele e "conoscenze" andrebbe adeguatamente esplorato.
Scritto da: Dino Bortolotto | 27/08/2014 a 12:07