http://www.cnr.it/ontology/cnr/individuo/prodotto/ID139750
INTERFACE: strumenti interattivi per lanimazione delle facce parlanti (Contributo in atti di convegno)
- Type
- Label
- INTERFACE: strumenti interattivi per lanimazione delle facce parlanti (Contributo in atti di convegno) (literal)
- Anno
- 2005-01-01T00:00:00+01:00 (literal)
- Alternative label
Graziano Tisato, Piero Cosi, Carlo Drioli, Fabio Tesser (2005)
INTERFACE: strumenti interattivi per lanimazione delle facce parlanti
in AISV 2004 - 1° Convegno Nazionale dell'Associazione Italiana di Scienze della Voce (AISV), " Misura di parametri - aspetti tecnologici ed implicazioni nei modelli linguistici", Padova, Italy, 2-4 dicembre 2004
(literal)
- Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#autori
- Graziano Tisato, Piero Cosi, Carlo Drioli, Fabio Tesser (literal)
- Pagina inizio
- 91 (CD Rom 817) (literal)
- Pagina fine
- 91 (CD Rom 846) (literal)
- Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#altreInformazioni
- Tisato G., Fusaro A., Cosi P., Drioli C., Tesser F.
\"INTERFACE: strumenti interattivi per l'animazione delle facce parlanti\"
in Cosi P. (editor)
Abstract Book & CD-Rom Proceedings of AISV 2004, 1st Conference of Associazione Italiana di Scienze della Voce
Padova, Italy
December 2-4, 2004
EDK Editore s.r.l.
Padova, 2005
pp. 817-846 (91)
http://www2.pd.istc.cnr.it/Papers/PieroCosi/tg-AISV2004.pdf
AISV 2004 - 1° Convegno Nazionale dell'Associazione Italiana di Scienze della Voce (AISV), \" Misura di parametri - aspetti tecnologici ed implicazioni nei modelli linguistici\"
http://www.aisv.it/it/convegni-aisv?start=8
http://www.aisv.it/AISV2004/default.htm (literal)
- Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#citta
- Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#url
- http://www.aisv.it/AISV2004/default.htm (literal)
- Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#titoloVolume
- AISV 2004 - Atti del 1° Convegno Nazionale dell'Associazione Italiana di Scienze della Voce (AISV), \" Misura di parametri - aspetti tecnologici ed implicazioni nei modelli linguistici\" (literal)
- Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#volumeInCollana
- Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#autoriCuratela
- Tisato G., Fusaro A., Cosi P., Drioli C., Tesser F. (literal)
- Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#note
- Atti del 1° Convegno Nazionale dellAssociazione Italiana di Scienze della Voce (AISV), Padova, 2-4 dicembre, 2004 - CD-Rom Proceedings
(Related website: http://www.istc.cnr.itwww.pd.istc.cnr.it/FESTIVAL)
(literal)
- Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#pagineTotali
- Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#descrizioneSinteticaDelProdotto
- Abstract:Gli sviluppi recenti della ricerca nel campo delle teorie sulla produzione e percezione della lingua parlata, così come nel campo tecnologico dellinterazione uomo-macchina richiedono lacquisizione e lelaborazione di grandi quantità di dati articolatori ed acustici. Daltra parte, la richiesta di questo tipo di dati è aumentata negli ultimi anni con il crescente interesse manifestato dalla comunità scientifica nel campo delle emozioni. Questo articolo presenta InterFace, un ambiente interattivo realizzato allISTC-SPFD con lo scopo di facilitare tutte le fasi di analisi, elaborazione, e sintesi dei dati necessari allanimazione audio-visuale delle Teste Parlanti. InterFace permette di raggiungere tre principali finalità: Estrarre dai dati acquisiti un insieme di misure su parametri articolatori (ad es. apertura labiale, arrotondamento, protrusione, aggrottamento, asimmetrie labiali, ecc.), espressamente definiti dallutente, e riguardanti tanto lambito tradizionale della fonetica che quello più recente delle emozioni. Ottenere da quegli stessi dati una modellizzazione parametrica dellevoluzione dei parametri fonetici, che tenga in debito conto i fenomeni di coarticolazione, e che possa essere impiegato nei motori di animazione delle Teste Parlanti. Creare da varie fonti il flusso dei dati audio-visuali necessari allanimazione di un agente conversazionale, capace di esprimere emozioni (literal)
- Note
- Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#affiliazioni
- Graziano Tisato, Piero Cosi, Carlo Drioli, Fabio Tesser
Istituto di Scienze e Tecnologie della Cognizione
Sezione di Padova - Fonetica e Dialettologia
Via G. Anghinoni, 10 - 35121 Padova - Italia
(now ISTC CNR, UOS Padova, Padova, Italy) (literal)
- Titolo
- INTERFACE: strumenti interattivi per lanimazione delle facce parlanti (literal)
- Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#inCollana
- In Cosi P. (a cura di), Misura di Parametri. Aspetti tecnologici ed implicazioni nei modelli linguistici (pp. 817-846). (literal)
- Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#isbn
- Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#autoriVolume
- Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#curatoriVolume
- Abstract
- Gli sviluppi recenti della ricerca nel campo delle teorie sulla produzione e percezione della lingua parlata, così come nel campo tecnologico dell'interazione uomo-macchina (riconoscimento della voce, sintesi di agenti conversazionali, insegnamento delle lingue, riabilitazione della voce, ecc.) richiedono l'acquisizione e l'elaborazione di grandi quantità di dati articolatori ed acustici. È noto, infatti, che questi dati si differenziano da lingua a lingua per la dimensione e la struttura dell'inventario fonologico. D'altra parte, la richiesta di questo tipo di dati è aumentata negli ultimi anni con il crescente interesse manifestato dalla comunità scientifica nel campo delle emozioni.
Questo articolo presenta InterFace, un ambiente interattivo realizzato all'ISTC-SPFD (www.pd.istc.cnr.it/interface) con lo scopo di facilitare tutte le fasi di analisi, elaborazione, e sintesi dei dati necessari all'animazione audio-visuale delle Teste Parlanti.
InterFace permette di raggiungere tre principali finalità:
o Estrarre dai dati acquisiti un insieme di misure su parametri articolatori (ad es. apertura labiale, arrotondamento, protrusione, aggrottamento, asimmetrie labiali, ecc.), espressamente definiti dall'utente, e riguardanti tanto l'ambito tradizionale della fonetica che quello più recente delle emozioni.
o Ottenere da quegli stessi dati una modellizzazione parametrica dell'evoluzione dei parametri fonetici, che tenga in debito conto i fenomeni di coarticolazione, e che possa essere impiegato nei motori di animazione delle Teste Parlanti.
o Creare da varie fonti il flusso dei dati audio-visuali necessari all'animazione di un agente conversazionale, capace di esprimere emozioni.
Il sistema può maneggiare quattro differenti tipi di dati in ingresso:
o Dati reali, acquisiti da sistemi di cattura degli andamenti cinematici dell'articolazione facciale. L'elaborazione di questi dati permette di realizzare una tipica Data-Driven Synthesis.
o Dati testuali, da cui generare il flusso di dati audio-video di controllo dell'animazione facciale. Seguendo questo via, si ottiene una Text-to-Animation Synthesis, ovverosia una Symbolic-Driven Synthesis.
o Dati audio, da cui ricavare la segmentazione fonetica con un sistema di riconoscimento automatico e ottenere in questo modo la sequenza dei fonemi necessari ad una animazione sincrona con l'audio. Questo procedimento può essere chiamato una Wav-to-Animation Synthesis.
o Dati a basso livello, per controllare manualmente il movimento di uno o più parametri di animazione e verificarne l'effetto con la sintesi video. Quest'ultimo procedimento si può definire come una Manual-Driven Synthesis. (literal)
- Prodotto di
- Autore CNR
- Insieme di parole chiave
Incoming links:
- Autore CNR di
- Prodotto
- Insieme di parole chiave di