Definizioni

Per fare chiarezza su ciò che c’è in gioco, occorre anzitutto chiarire il significato dei termini usati più frequentemente.

La protezione dei dati viene spesso intesa come il diritto di ogni individuo di decidere da solo quali dei suoi dati personali sono accessibili a chi e quando. L’idea essenziale, alla base del diritto di protezione dei dati, è che la disparità di potere tra le organizzazioni e gli individui può essere subordinata a delle condizioni. Concretamente, la protezione dei dati ha lo scopo di contrastare: la tendenza della società dell'informazione digitale e connessa a rendere le persone trasparenti; la proliferazione di misure di sorveglianza statale (Stato di sorveglianza) e l'emergere di monopoli di dati da parte di aziende private.

La legge federale sulla protezione dei dati è in vigore dal 1992. Attualmente si trova in fase di revisione, ciò che probabilmente durerà fino al 2022. Lo scopo di questa legge è di proteggere la personalità e i diritti fondamentali delle persone, che vengono vieppiù trattati come dati.

Il nuovo regolamento dell’UE sulla protezione dei dati (GDPR) è in vigore dal maggio 2018. Pur essendo stato introdotto nell'Unione europea, il GDPR si applica anche alle aziende svizzere che hanno una filiale nell'UE e alle aziende che hanno la loro sede legale in Svizzera ma che operano sul territorio dell'UE.

Il nuovo regolamento armonizza le regole sul trattamento dei dati personali da parte di aziende private ed enti pubblici. I dati personali sono definiti come qualsiasi informazione che si riferisce, direttamente o indirettamente, ad un individuo identificabile. Queste informazioni possono essere un nome, una foto, un indirizzo e-mail, degli indirizzi IP o dei posts sui media sociali.

Il nuovo regolamento dell’UE sulla protezione dei dati mira a rafforzare il diritto alla protezione dei dati personali dei cittadini europei e responsabilizza anche maggiormente le imprese nel trattamento dei dati personali.  

Ciò concerne, per esempio, le imprese che eseguono Google Analytics sul loro sito Web, al quale hanno accesso anche gli utenti dell'area UE. Per gestire il sito web in conformità con il GDPR, gli operatori del sito devono informare gli utenti con un informativa sulla privacy e sulla tutela dei dati personali che vengono raccolti e trattati. L'utente deve dare esplicitamente il suo consenso per il trattamento dei suoi dati personali, ma deve anche avere la possibilità di rifiutare.

Il termine Big Data si riferisce anzitutto a volumi di dati che sono, per esempio, troppo grandi, troppo complessi, troppo veloci o non abbastanza strutturati per essere interpretati con i metodi usuali di elaborazione dei dati.

Big Data è spesso usato come concetto generale per le tecnologie digitali che sono ritenute responsabili di una nuova era nel trattamento dei dati e dello sconvolgimento sociale che ne segue. Come parola chiave, il termine è soggetto a continue mutazioni; a quanto detto sopra viene infatti anche spesso aggiunto che si tratta dell’insieme delle tecnologie che vengono utilizzate per raccogliere e analizzare le grandi quantità di dati.

Il business dei dati è in piena espansione. Secondo Statista, le soluzioni Big Data hanno generato un fatturato di circa 33,5 miliardi di dollari nel 2017. La tendenza è chiaramente al rialzo.

Non esiste (ancora) una definizione di validità generale per la Data Science. La Data Science si occupa del modo in cui grandi quantità di dati vengono raccolte, elaborate, preparate e analizzate e può essere suddivisa in quattro settori chiave:

  1.  Data Engineering
    Con Data Engineering si intendono tutti i metodi e i processi necessari per lo stoccaggio, l'accesso e la tracciabilità dei dati. Nel settore del Data Engineering si trovano spesso grandi quantità di dati per i quali devono essere garantiti gli aspetti citati prima (stoccaggio, accessibilità e tracciabilità). Il Data Engineering può essere implementato nella pratica attraverso vari strumenti, come per esempio i Linked (open) Data, l’estrazione di informazioni o i Data Marketplaces.
     
  2. Data Analytics e come risultato gli Smart Data
    La Data Analytics si occupa dell'analisi dei dati. La preparazione e l'elaborazione di grandi volumi di dati utilizzando algoritmi adeguati è un prerequisito per un'analisi veloce e efficace. Dalla Data Analytics risultano preziose informazioni e conoscenze estratte da grandi volumi di dati - per esempio sotto forma di Smart Data. Quest’ultimi sono degli insiemi di dati estratti da un grande e disordinato volume di dati per rispondere a una domanda specifica. In poche parole, la Data Analytics è un’estrazione automatizzata di informazioni da dati non formattati, eterogenei e disponibili in grandi quantità, per esempio nei rapporti di gestione o nelle fonti di testi su Internet, e che non sono stati preparati per l'analisi.
     
  3. Data Prediction
    La Data Prediction si occupa della previsione di temi e situazioni sulla base della conoscenza empirica. Le reti neurali artificiali o altri modelli matematici di previsione creano una previsione per il futuro basata su tutti i casi osservati in precedenza.
     
  4. Apprendimento automatico / Algoritmi
    L'apprendimento automatico (Machine Learning) è il settore che attraversa i tre settori precedenti. L'apprendimento automatico risulta dallo sviluppo di algoritmi che imparano dai dati (dalla conoscenza empirica), riconoscono modelli, generano modelli e arrivano a prevedere temi e situazioni sulla base di questi modelli. Nel Data stream mining, un flusso continuo di dati viene elaborato e interpretato continuamente. Un sottocampo importante dell'apprendimento automatico è il Deep Learning, che si basa su reti neurali a molteplici strati responsabili dell'estrazione di caratteristiche a diversi livelli di astrazione.

    Nell'apprendimento automatico, l’apprendimento basato su ipotesi viene sostituito dall'apprendimento basato dai dati. Si tratta di un processo esplorativo in cui l'apprendimento proviene direttamente dai dati. Sulla base dei casi osservati, la conoscenza empirica viene continuamente adattata, completata e aggiornata. Questo include, per esempio, le tecnologie linguistiche multilingue e il Semantic Web

 

1 Definizioni dal rapporto:
Rapporto: Data Science
Selezione, descrizione, valutazione e misura delle competenze chiave per il campo tecnologico della Data Science
J. Gausemeier, M. Guggemos, A. Kreimeyer 2018 (eds.)

Invece di usare il termine "intelligenza artificiale", stracarico di aspettative, consideriamo più appropriato il termine "processo decisionale automatizzato" (Automated Decision Making, ADM). Questo termine infatti ci permette infatti di intravvedere e di concentrarci sull'aspetto della responsabilità che implica.  La responsabilità dell'ADM appartiene sempre e ancora alle persone che redigono i mandati, che sviluppano e che approvano tali sistemi.

Rimani aggiornato

In modo personale, veloce e diretto

Vuoi sapere per cosa ci impegniamo? Abbonati alla nostra newsletter! I nostri segretari e le nostre segretarie regionali saranno felici di rispondere alle tue richieste personali.

syndicom nei tuoi paraggi

Nei segretariati regionali troverai sostegno e una consulenza competente

Abbonare la newsletter