http://www.cnr.it/ontology/cnr/individuo/descrizionemodulo-descrizionemodulo/ID2103
Descrizione del modulo "Sistemi e algoritmi per Big Data (ICT.P09.006.001)"
- Type
- Label
- Descrizione del modulo "Sistemi e algoritmi per Big Data (ICT.P09.006.001)" (literal)
- Potenziale impiego per bisogni individuali e collettivi
- In questi anni il numero di utenti, oggetti, servizi e infrastrutture critiche interconnesse attraverso Internet cresce rapidamente e la comunita' europea, attraverso l'iniziativa di \"Future Internet\", tenta di rafforzare e guidare questa dinamica con lo scopo di mantenere e migliorare la competitivita' europea nel mercato globale. Le competenze della commessa relative alla gestione ed analisi efficiente e scalabile di grandi quantita' di dati generati nei piu' svariati ambiti, dalle simulazioni scientifiche fino alle attivita' individuali quotidiane, sono centrali in questo contesto e permettono alla commessa di giocare un ruolo importante con ricadute vantaggiose per la collettività. (literal)
- Tematiche di ricerca
- Il gruppo di ricerca afferente al modulo ha l'obiettivo di investigare vari settori dell'High Performance Computing. Le tematiche di ricerca sono unificate dall'enfasi posta su efficienza e scalabilita' delle soluzioni e degli algoritmi proposti. In maggior dettaglio le principali tematiche considerate sono:
- algoritmi scalabili per Data e Web Mining con particolare attenzione all'interazione dell'algoritmo con l'architettura di calcolo sottostante;
- algoritmi per migliorare efficacia e/o efficienza di sistemi per Web Information Retrieval, con particolare attenzione a Web mining Learning to Rank ed a soluzioni che sfruttano conoscenza estratta da social network, da log di uso dei sistemi stessi e dal Web of Data;
- Sistemi di raccomandazione;
- Compressione e ricerca di dati testuali;
- Cloud computing, cloud federation, servizi per large-scale data analysis, scoperta ed orchestrazione di servizi;
- sistemi P2P per Resource and information Discovery; (literal)
- Competenze
- Competenze di base comuni ai ricercatori di HPC Lab riguardano la conoscenza dei paradigmi di programmazione, delle architetture e dei sistemi operativi, delle strutture dati e delle metodologie di programmazione efficiente, delle tecniche per la gestione efficiente di grandi quantità di dati, degli algoritmi di data mining e machine learning e dei framework per large-scale data analysis, del complesso insieme di tecniche e soluzioni per Web search. Il cloud computing ed in generale il calcolo distribuito sono assieme ai paradigmi di programmazione basati su MapReduce, le tecnologie di base maggiormente usate per la parte sperimentale delle attività di ricerca. (literal)
- Potenziale impiego per processi produttivi
- In un prossimo futuro, l'importanza dei dati e della loro gestione ed analisi efficiente e scalabile mediante sistemi paralleli e/o distribuiti ed algoritmi ad alte prestazioni potra' solo aumentare e pervadere un crescente numero di servizi, processi ed applicazioni che avranno un impatto sempre maggiore nelle attivita' produttive, commerciali ed economiche del sistema paese. Queste tecnologie avranno uno sviluppo particolarmente accelerato anche in conseguenza del progresso tecnologico nel campo dei microprocessori che gia' ora integrano in un solo chip decine di core indipendenti e paralleli, e promettono di supportare con livelli di prestazione elevatissimi servizi avanzati e complessi anche su dispositivi mobili. I risultati delle attività di ricerca svolte all'interno della commessa, e supportati da numerosi progetti con finanziamenti esterni, hanno portato alla realizzazione di prototipi che hanno un potenziale impiego in diversi settori applicativi. (literal)
- Tecnologie
- Nello sviluppo di nuovi algoritmi si impiegano ambienti di programmazione allo stato dell'arte principalmente nella famiglia dei linguaggi C/C++ e Java e loro estensioni per la gestione del parallelismo e della concorrenza, quali i framwork basati su MapReduce. Grande importanza hanno anche gli algoritmi e le tecniche di machine learning e data mining, i linguaggi di scripting quali Perl, Phyton, gli application server quale Tomcat e IBM WebSphere, protocolli di comunicazione sincroni e asincroni basati su tecnologie SOAP/XML-RPC, linguaggi di descrizione di servizi quali WSDL. (literal)
- Obiettivi
- L'obiettivo è l'innovazione e l'avanzamento delle conoscenze nello sviluppo di sistemi ed algoritmi per la soluzione di problemi di larga scala. Obiettivi più specifici riguardano l'avanzamento delle conoscenze nei seguenti settori di ricerca: Large-scale data management, Parallel and Distributed Information Retrieval Systems, Query Log analysis and Mining, Scalable Data Mining algorithms, text compression, Service-Oriented Knowledge Utilities. recommendation systems, Web of data, Cloud computing, P2P Resource Discovery and Information services.
La ricerca sviluppata e' finanziata mediante la partecipazione a progetti nazionali ed europei. Obiettivi sono quindi anche la disseminazione dei risultati attraverso la partecipazione a progetti industriali e le attività di formazione. (literal)
- Stato dell'arte
- Le tecnologie Cloud, gli algoritmi efficienti e scalabili di analisi e ricerca sono al giorno d'oggi strumenti indispensabili per gestire il data deluge caratterizzato da un crescente numero di utenti, oggetti, servizi e infrastrutture critiche interconnesse attraverso Internet, ed analizzare le enormi quantità di dati anche complessi prodotti quotidianamente nella moderna società dell'informazione. Un indicatore importante di questa importanza si puo' considerare il gran numero di progetti nel settore finanziati negli anni scorsi all'interno dei programma quadro della Comunità Europea, e il crescente numero di lavori su tematiche di efficienza e scalabilità pubblicati nelle principali conferenze e riviste scientifiche di Computer Science. L'obiettivo della ricerca in questo settore è di migliorare l'impatto delle ICT nel sistema economico del paese, e di giocare un ruolo importante nell'avanzamento delle conoscenze. (literal)
- Tecniche di indagine
- Le tecniche di indagine utilizzate per la comprensione di fenomeni sono principalmente metodi analitici che richiedono conoscenze principalmente matematico, statistiche ed algebriche. Sono usate anche metodologie di validazione sperimentale atte a misurare indici di qualita' o prestazione utilizzando, quando possibile, banchmark riconosciuti dalla comunità scientifica. Frequente e' l'analisi di sistemi software distribuiti sulla base di conoscenze di teoria dell'Informazione. Dimostratori su specifici casi di studio vengono realizzati all'occorrenza. Nello sviluppo di applicazioni complesse si segue il processo standard che va dalla comprensione del problema, alla progettazione top-down della soluzione, alla sua implementazione, e verifica, fino alla messa in opera. (literal)
- Descrizione di
Incoming links:
- Descrizione