INTERFACE: strumenti interattivi per l’animazione delle facce parlanti (Contributo in atti di convegno)

Type
Label
  • INTERFACE: strumenti interattivi per l’animazione delle facce parlanti (Contributo in atti di convegno) (literal)
Anno
  • 2005-01-01T00:00:00+01:00 (literal)
Alternative label
  • Graziano Tisato, Piero Cosi, Carlo Drioli, Fabio Tesser (2005)
    INTERFACE: strumenti interattivi per l’animazione delle facce parlanti
    in AISV 2004 - 1° Convegno Nazionale dell’'Associazione Italiana di Scienze della Voce (AISV), " Misura di parametri - aspetti tecnologici ed implicazioni nei modelli linguistici", Padova, Italy, 2-4 dicembre 2004
    (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#autori
  • Graziano Tisato, Piero Cosi, Carlo Drioli, Fabio Tesser (literal)
Pagina inizio
  • 91 (CD Rom 817) (literal)
Pagina fine
  • 91 (CD Rom 846) (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#altreInformazioni
  • Tisato G., Fusaro A., Cosi P., Drioli C., Tesser F. \"INTERFACE: strumenti interattivi per l'animazione delle facce parlanti\" in Cosi P. (editor) Abstract Book & CD-Rom Proceedings of AISV 2004, 1st Conference of Associazione Italiana di Scienze della Voce Padova, Italy December 2-4, 2004 EDK Editore s.r.l. Padova, 2005 pp. 817-846 (91) http://www2.pd.istc.cnr.it/Papers/PieroCosi/tg-AISV2004.pdf AISV 2004 - 1° Convegno Nazionale dell’'Associazione Italiana di Scienze della Voce (AISV), \" Misura di parametri - aspetti tecnologici ed implicazioni nei modelli linguistici\" http://www.aisv.it/it/convegni-aisv?start=8 http://www.aisv.it/AISV2004/default.htm (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#citta
  • Padova (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#url
  • http://www.aisv.it/AISV2004/default.htm (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#titoloVolume
  • AISV 2004 - Atti del 1° Convegno Nazionale dell’'Associazione Italiana di Scienze della Voce (AISV), \" Misura di parametri - aspetti tecnologici ed implicazioni nei modelli linguistici\" (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#volumeInCollana
  • I, 2004 (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#autoriCuratela
  • Tisato G., Fusaro A., Cosi P., Drioli C., Tesser F. (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#note
  • Atti del 1° Convegno Nazionale dell’Associazione Italiana di Scienze della Voce (AISV), Padova, 2-4 dicembre, 2004 - CD-Rom Proceedings (Related website: http://www.istc.cnr.itwww.pd.istc.cnr.it/FESTIVAL) (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#pagineTotali
  • 104 (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#descrizioneSinteticaDelProdotto
  • Abstract:Gli sviluppi recenti della ricerca nel campo delle teorie sulla produzione e percezione della lingua parlata, così come nel campo tecnologico dell’interazione uomo-macchina richiedono l’acquisizione e l’elaborazione di grandi quantità di dati articolatori ed acustici. D’altra parte, la richiesta di questo tipo di dati è aumentata negli ultimi anni con il crescente interesse manifestato dalla comunità scientifica nel campo delle emozioni. Questo articolo presenta InterFace, un ambiente interattivo realizzato all’ISTC-SPFD con lo scopo di facilitare tutte le fasi di analisi, elaborazione, e sintesi dei dati necessari all’animazione audio-visuale delle Teste Parlanti. InterFace permette di raggiungere tre principali finalità: • Estrarre dai dati acquisiti un insieme di misure su parametri articolatori (ad es. apertura labiale, arrotondamento, protrusione, aggrottamento, asimmetrie labiali, ecc.), espressamente definiti dall’utente, e riguardanti tanto l’ambito tradizionale della fonetica che quello più recente delle emozioni. • Ottenere da quegli stessi dati una modellizzazione parametrica dell’evoluzione dei parametri fonetici, che tenga in debito conto i fenomeni di coarticolazione, e che possa essere impiegato nei motori di animazione delle Teste Parlanti. • Creare da varie fonti il flusso dei dati audio-visuali necessari all’animazione di un agente conversazionale, capace di esprimere emozioni (literal)
Note
  • S (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#affiliazioni
  • Graziano Tisato, Piero Cosi, Carlo Drioli, Fabio Tesser Istituto di Scienze e Tecnologie della Cognizione Sezione di Padova - Fonetica e Dialettologia Via G. Anghinoni, 10 - 35121 Padova - Italia (now ISTC CNR, UOS Padova, Padova, Italy) (literal)
Titolo
  • INTERFACE: strumenti interattivi per l’animazione delle facce parlanti (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#inCollana
  • In Cosi P. (a cura di), Misura di Parametri. Aspetti tecnologici ed implicazioni nei modelli linguistici (pp. 817-846). (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#isbn
  • 88-88974-69-5 (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#autoriVolume
  • Cosi P. (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#curatoriVolume
  • Cosi P. (literal)
Abstract
  • Gli sviluppi recenti della ricerca nel campo delle teorie sulla produzione e percezione della lingua parlata, così come nel campo tecnologico dell'interazione uomo-macchina (riconoscimento della voce, sintesi di agenti conversazionali, insegnamento delle lingue, riabilitazione della voce, ecc.) richiedono l'acquisizione e l'elaborazione di grandi quantità di dati articolatori ed acustici. È noto, infatti, che questi dati si differenziano da lingua a lingua per la dimensione e la struttura dell'inventario fonologico. D'altra parte, la richiesta di questo tipo di dati è aumentata negli ultimi anni con il crescente interesse manifestato dalla comunità scientifica nel campo delle emozioni. Questo articolo presenta InterFace, un ambiente interattivo realizzato all'ISTC-SPFD (www.pd.istc.cnr.it/interface) con lo scopo di facilitare tutte le fasi di analisi, elaborazione, e sintesi dei dati necessari all'animazione audio-visuale delle Teste Parlanti. InterFace permette di raggiungere tre principali finalità: o Estrarre dai dati acquisiti un insieme di misure su parametri articolatori (ad es. apertura labiale, arrotondamento, protrusione, aggrottamento, asimmetrie labiali, ecc.), espressamente definiti dall'utente, e riguardanti tanto l'ambito tradizionale della fonetica che quello più recente delle emozioni. o Ottenere da quegli stessi dati una modellizzazione parametrica dell'evoluzione dei parametri fonetici, che tenga in debito conto i fenomeni di coarticolazione, e che possa essere impiegato nei motori di animazione delle Teste Parlanti. o Creare da varie fonti il flusso dei dati audio-visuali necessari all'animazione di un agente conversazionale, capace di esprimere emozioni. Il sistema può maneggiare quattro differenti tipi di dati in ingresso: o Dati reali, acquisiti da sistemi di cattura degli andamenti cinematici dell'articolazione facciale. L'elaborazione di questi dati permette di realizzare una tipica Data-Driven Synthesis. o Dati testuali, da cui generare il flusso di dati audio-video di controllo dell'animazione facciale. Seguendo questo via, si ottiene una Text-to-Animation Synthesis, ovverosia una Symbolic-Driven Synthesis. o Dati audio, da cui ricavare la segmentazione fonetica con un sistema di riconoscimento automatico e ottenere in questo modo la sequenza dei fonemi necessari ad una animazione sincrona con l'audio. Questo procedimento può essere chiamato una Wav-to-Animation Synthesis. o Dati a basso livello, per controllare manualmente il movimento di uno o più parametri di animazione e verificarne l'effetto con la sintesi video. Quest'ultimo procedimento si può definire come una Manual-Driven Synthesis. (literal)
Prodotto di
Autore CNR
Insieme di parole chiave

Incoming links:


Autore CNR di
Prodotto
Insieme di parole chiave di
data.CNR.it