Intelligenza artificiale 2

Docente: Maria Teresa Pazienza

Comunicazioni

lezione 19 dicembre

12-12-2018 16:34

La lezione di Intelligenza Artificiale 2 di mercoledì 19 dicembre si terrà nell'aula C12 (invece che in aula Disegno 2)  



progetti IA2

30-11-2018 15:27

nella lezione del giorno 10 dicembre saranno presentati i progetti per gli studenti di Intelligenza Artificiale 2


esercitazioni IA2

16-11-2018 10:47

repository GIT delle esercitazioni (https://bitbucket.org/art-uniroma2/teaching-ia2-2018_2019-lectures/). Al suo interno le tracce di alcuni esercizi su RDF4J e tra alcuni giorni anche il relativo svolgimento.

 


Esercitazioni IA2

22-10-2018 19:58

Nelle prossime esercitazioni verrà usato GraphDB (https://ontotext.com/products/graphdb/).

Si consiglia di scaricare (previa registrazione) la versione standalone server di GraphDB Free.


comunicazioni con il docente

08-10-2018 12:12

ogni studente interessato ad interloquire con il docente può inviare una mail all'indirizzo pazienza@info.uniroma2.it e chiedere un ricevimento


Lezioni

3525-01-2019

analisi di problematiche progettuali

3423-01-2019

problemi etici associati ai Big Data

3321-01-2019

lezione aperta alle domande degli studenti

3211-01-2019

esercitazioni - analisi stato di avanzamento dei progetti

3109-01-2019

valutazione dinamica di problematiche progettuali

3007-01-2019

esercitazioni

2919-12-2018

stato di avanzamento dei progetti: discussione con i gruppi di studenti

2817-12-2018

Seminario su IDRA: Inductive Deductive Reasoning Approach

2714-12-2018

verifica stato di avanzamento progetti (1)

2610-12-2018

presentazione ed analisi delle tracce dei progetti per l'esame di Intelligenza Artificiale 2

2507-12-2018

sistemi distribuiti per la gestione di dati RDF
cenni ad Apache Spark

2405-12-2018

HDFS, YARN ed esecuzione di job map-reduce tramite YARN



2303-12-2018

esempio applicaz. Map-reduce

2230-11-2018

sistemi di calcolo distribuito (mapreduce, spark, uima-as...) 

2128-11-2018

Sfide dell'open IE (sinonimia/ambiguità, vari aspetti linguistici, aspetti spazio-temporali e check di consistenza)

2026-11-2018
  • Ulteriori sistemi di Open IE: ClausIE, CSD-IE, DefIE
  • Apache UIMA: esempi di generazione di un descrittore di analysis engine (aggregato) e suo uso nel Document Analyzer
1923-11-2018

Esercitazione Apache UIMA, Apache uimaFIT e DKpro Core

1821-11-2018
  • OpenIE tools
  • Descrizione mapping di Wikidata in RDF
1719-11-2018
  • Discussione di diversi metodi di costruzione dei Knowledge Graph
  • DBpedia
  • Wikidata (prima parte)
1616-11-2018

introduzione ai knowledge graphs

1514-11-2018

esercitazione su analisi di sorgenti eterogenee di dati

1412-11-2018

Data quality criteria

1309-11-2018

RDF4J (parte 2) e VoID

1207-11-2018

RDF4J (parte 1) 

1105-11-2018

Big Data Quality (1)

1031-10-2018

Identity in Linked Data

926-10-2018

NER and linking in open information extraction

824-10-2018

esercizi su RDF e OWL, reasoning con OWL2 e GraphDB

722-10-2018

LOD

619-10-2018

RDF(S) e OWL

517-10-2018

estrazione di informazioni da testi

415-10-2018

conoscenza ontologica e linguaggio naturale

312-10-2018

Introduzione all'analisi del linguaggio naturale

210-10-2018

problematiche di gestione dei big data

108-10-2018

inttroduzione alla tematiche ed alle modalità di svolgimento del corso di Intelligenza Artificiale 2


Materiale didattico

problemi etici con l'uso dei Big Data

tracce per progetti da 1 solo studente

IDRA for Big Data

LDIF-A Framework for Large-Scale Linked Data Integration.pdf

Knowledge Graph Refinement - A Survey of Approaches and Evaluation Methods.pdf

Esempio left-deep query plan in MapReduce.pdf

proposte progetti

Hdfs cartoon

High performance....

gestione di big RDF data

gestione di big data

...Map reduce

istruzioni per Vagrant-Hadoop

The world ....

The Pathologie...

rdf query answeing...

rdf in cloudsl...

pregel...

mapreduce...

apache...

DBpedia....

Entity linking....

Improving efficiency....

Open IE from....

Unsupervised resolution....

Sistemi per OpenIE

OpenIE: analisi di sistemi di OpenIE

Open Information Extraction

Large scale IE

CLAUSIE

Metodi di costruzione di un KG

open language learning for IE

 OIE applications

 OIE for the web

Relations for OIE

Wikidata

DBpedia

introduzione ai knowledge graphs

esempi di non grande qualità delle risorse accessibili su web

reasoning in GraphDB

esercizi OWL

esercizi RDF

RDF4J

Big Data Quality criteria

BD quality on the web

BD quality e linked data

Open Information Extraction

BD management

GraphDB

LOD

OWL part_2

OWL part_1

RDF

knowledge extraction

conoscenza ontologica

Elaborazione del linguaggio naturale

Introduzione al corso di Intelligenza Artificiale 2

Informazioni

Anno accademico2018-2019
Crediti9
SettoreING-INF/05
Anno2
Semestre1
PropedeuticitàNessuna

Programma

Intelligenza Artificiale 2 / Big Data Semantics

Programma del corso

a.a. 2018-19

 

Quotidianamente persone e sistemi rilasciano sul web una enorme quantità di dati. Il termine Big Data è stato coniato per descrivere questo fenomeno che va al di là della sola grande quantità di dati.  

Caratteristiche proprie dei Big Data sono (in inglese): volume, variety, velocity, value, veracity.

Volume – il vantaggio derivante dalla capacità/possibilità di elaborare grandi quantità di informazioni  

Variety – dati in formati eterogenei: senza una struttura prefissata  questi dati solo raramente si presentano in una forma perfetta e pronti per essere elaborati.  Variabilità può essere un problema ulteriore che pone l’attenzione sulla semantica, o sulla variabilità del significato nei linguaggi così come nei protocolli di comunicazione   

Velocity non tanto la velocità con cui arrivano I dati in ingresso: l’attenzione è posta sulla velocità con cui si attiva il ciclo di reazione, dalla presa in carico dei dati in ingresso al prendere una decisione finale.   

Value – le architetture per Big Data sono disegnate per estrarre, in maniera economica, valore da grandi volumi di una grande varietà di dati ponendo in essere approcci veloci ed efficaci per la cattura, identificazione ed analisi di dati.   

Veracity – conformità alla verità ed ai fatti: l’incertezza può essere causata da inconsistenze, modelli approssimati, ambiguità, raggiri, frodi, duplicazioni, incompletezza, spam e latenza. A causa della  veracity, I risultati ottenuti tramite Big Data non possono essere provati, ma ad essi può essere assegnato un valore di probabilità.    

 

Alla fine del corso gli studenti avranno acquisito competenze su come:  

* Descrivere come progettare una applicazione di Big Data anche attraverso l’uso di dati reali. 

 * Avere consapevolezza delle V dei Big Data (volume, velocity, variety, veracity, and value) e come ciascuna di esse impatti sulla raccolta dati, il monitoraggio, la memorizzazione, l’analisi e la reportistica conseguente. 

* Estrarre valore dai Big Data usando processi articolati per strutturare la propria analisi. 

* Riconoscere quali sono effettivamente problemi collegati ai Big Data da quelli che non lo sono  ed essere capaci di riformulare il problema come problematiche di data science.

 * Fornire una spiegazione dei componenti architetturali e modelli di programmazione usati per scalare l’analisi dei Big Data.  


Testi di riferimento

presentazioni di lezioni ed esercitazioni

altro materiale didattico pubblicato e commentato su questo sito


Ricevimento studenti

il docente riceve dopo le lezioni e su appuntamento; inviare una mail all'indirizzo: pazienza@info.uniroma2.it 


Modalità di esame

esame orale con domande sulle tematiche del corso e discussione di un progetto