EntiOnLine
Categorie
indietro
10/02/2020 BIG DATA - Big Data, principi di qualita' e minimizzazione dei dati
Il documento è riservato agli abbonati

Per qualsiasi informazione inerente i prezzi o le modalità di effettuazione del servizio, contatta l'agente di zona oppure scrivi a info@entionline.it
o telefona allo 030/2531939.

Big Data nell’ecosistema digitale italiano: considerazioni del Garante per la protezione dei dati personali - Big Data, principi di qualità e minimizzazione dei dati

Del pari determinante è il rispetto del principio di qualità –che pure deve tradursi in un approccio by designin ogni stadio del processo, vale a dire all’introduzione di procedure volte ad assicurare sistematicamente e su larga scala la qualità dei dati raccolti e l’appropriatezza dei criteri di analisi dei dati selezionati –con riguardo ai dati che possono formare oggetto di trattamento nei Big Data. Il trattamento di informazioni di scarsa qualità (ad es. incomplete, inesatte o risalenti) come pure l’impiego di tecniche di ricerca (algoriti) che presentano errori di configurazione, sono suscettibili di condurre ad inferenze scorrette che si ripercuotono, in ultima analisi, sul processo (conoscitivo o decisionale) posto in essere e quindi su singoli o gruppi (più o meno ampi) di individui.

Prima dell’impiego su larga scala dei risultati generati tramite i Big Data è preferibile effettuare sperimentazioni e verifiche della correttezza degli esiti su scala ridotta. La individuazione di vizi (bias) sistemici nei dati oggetto di trattamento con i Big Data o nei processi valutativi (o predittivi) realizzati loro tramite deve condurre all’immediata revisione dei modelli utilizzati e all’adozione delle necessarie misure correttive. Il mancato approntamento di tali misure, preventive o successive, rispetto all’utilizzo dei Big Data, rileva dal punto di vista della complessiva correttezza del trattamento.

Tra gli aspetti che possono presentare profili di particolare criticità va annoverato il principio di minimizzazione dei dati, che può riverberare sia dal punto di vista quantitativo e qualitativo dei dati utilizzati (ad es. escludendo, ogni qualvolta possibile, l’uso di dati sensibili), sia dal punto di vista della profondità temporale dei dati utilizzati (valutando adeguatamente, quindi, i tempi di conservazione degli stessi). Con riguardo ad entrambi questi profili, ancora una volta, si tratta di considerare in concreto gli ambiti nei quali i trattamenti con tecniche Big Data possono essere effettuate, potendosi giustificare trattamenti di dati maggiormente “voluminosi” e risalenti nel tempo in taluni ambiti (ad esempio, nel contesto della ricerca medico scientifica) rispetto ad altri (ad esempio, in ambito commerciale). Queste varie circostanze devono formare oggetto di valutazione, anche per il tramite della menzionata valutazione d’impatto, e contribuiranno a definire il design del trattamento al fine diminimizzare i rischi di violazione dei diritti degli interessati.

Nel definire il corretto design che consente il trattamento di informazioni mediante Big Data può altresì essere valorizzata la previsione contenuta nell’art. 11, par. 1, del RGPD, secondo la quale “se le finalità per cui un titolare del trattamento tratta i dati personali non richiedono o non richiedono più l'identificazione dell'interessato, il titolare del trattamento non è obbligato a conservare, acquisire o trattare ulteriori informazioni per identificare l'interessato al solo fine di rispettare il presente regolamento.

Fonte: Rapporto 2020 AGCOM, AGCM E GARANTE sui Big Data

Banca dati