Intelligenza Artificiale 2 / Big Data Semantics
Programma del corso
a.a. 2018-19
Quotidianamente persone e sistemi rilasciano sul web una enorme quantità di dati. Il termine Big Data è stato coniato per descrivere questo fenomeno che va al di là della sola grande quantità di dati.
Caratteristiche proprie dei Big Data sono (in inglese): volume, variety, velocity, value, veracity.
Volume – il vantaggio derivante dalla capacità/possibilità di elaborare grandi quantità di informazioni
Variety – dati in formati eterogenei: senza una struttura prefissata questi dati solo raramente si presentano in una forma perfetta e pronti per essere elaborati. Variabilità può essere un problema ulteriore che pone l’attenzione sulla semantica, o sulla variabilità del significato nei linguaggi così come nei protocolli di comunicazione
Velocity – non tanto la velocità con cui arrivano I dati in ingresso: l’attenzione è posta sulla velocità con cui si attiva il ciclo di reazione, dalla presa in carico dei dati in ingresso al prendere una decisione finale.
Value – le architetture per Big Data sono disegnate per estrarre, in maniera economica, valore da grandi volumi di una grande varietà di dati ponendo in essere approcci veloci ed efficaci per la cattura, identificazione ed analisi di dati.
Veracity – conformità alla verità ed ai fatti: l’incertezza può essere causata da inconsistenze, modelli approssimati, ambiguità, raggiri, frodi, duplicazioni, incompletezza, spam e latenza. A causa della veracity, I risultati ottenuti tramite Big Data non possono essere provati, ma ad essi può essere assegnato un valore di probabilità.
Alla fine del corso gli studenti avranno acquisito competenze su come:
* Descrivere come progettare una applicazione di Big Data anche attraverso l’uso di dati reali.
* Avere consapevolezza delle V dei Big Data (volume, velocity, variety, veracity, and value) e come ciascuna di esse impatti sulla raccolta dati, il monitoraggio, la memorizzazione, l’analisi e la reportistica conseguente.
* Estrarre valore dai Big Data usando processi articolati per strutturare la propria analisi.
* Riconoscere quali sono effettivamente problemi collegati ai Big Data da quelli che non lo sono ed essere capaci di riformulare il problema come problematiche di data science.
* Fornire una spiegazione dei componenti architetturali e modelli di programmazione usati per scalare l’analisi dei Big Data. |