Nuovi strumenti di Interface per l’elaborazione delle facce parlanti (Contributo in atti di convegno)

Type
Label
  • Nuovi strumenti di Interface per l’elaborazione delle facce parlanti (Contributo in atti di convegno) (literal)
Anno
  • 2006-01-01T00:00:00+01:00 (literal)
Alternative label
  • Graziano Tisato, Piero Cosi, Giacomo Sommavilla, Claudio Zmarich (2006)
    Nuovi strumenti di Interface per l’elaborazione delle facce parlanti
    in AISV 2006,3° Convegno Nazionale Convegno Nazionale dell’Associazione Italiana di Scienze della Voce (AISV), "Scienze Vocali e del Linguaggio - metodologie di valutazione e risorse linguistiche", Pantè di Povo, (Trento), Italy, 29-30 Novembre - 1 Dicembre 2006
    (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#autori
  • Graziano Tisato, Piero Cosi, Giacomo Sommavilla, Claudio Zmarich (literal)
Pagina inizio
  • 67 (CD Rom 353) (literal)
Pagina fine
  • 67 (CD Rom 382) (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#altreInformazioni
  • Tisato G., Cosi P., Sommavilla G., Zmarich C. Nuovi strumenti di INTERFACE per l'elaborazione delle facce parlanti in Giordani V., Bruseghini V., Cosi P. (editors) Abstract Book & CD-Rom Proceedings of AISV 2006, 3rd Conference of Associazione Italiana di Scienze della Voce \"Scienze Vocali e del Linguaggio Metodologie di Valutazione e Risorse Linguistiche\" Pantè di Povo TRENTO 29-30 Novembre - 1 Dicembre 2006 EDK Editore s.r.l. Padova, 2007 pp. 353-382 (67) AISV 2006,3° Convegno Nazionale Convegno Nazionale dell’Associazione Italiana di Scienze della Voce (AISV), \"Scienze Vocali e del Linguaggio - metodologie di valutazione e risorse linguistiche\" http://www.aisv.it/it/convegni-aisv?start=6 http://aisv2006.fbk.eu/index.html (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#citta
  • Torriana (RN) (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#url
  • http://www.aisv.it/it/convegni-aisv?start=6 (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#titoloVolume
  • \"Scienze Vocali e del Linguaggio - metodologie di valutazione e risorse linguistiche\" - AISV 2006, Atti del 3° Convegno Nazionale Convegno Nazionale dell’Associazione Italiana di Scienze della Voce (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#numeroVolume
  • III, 2006 (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#volumeInCollana
  • III, 2006 (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#autoriCuratela
  • Tisato G., Cosi P., Sommavilla G., Zmarich C. (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#pagineTotali
  • 77 (literal)
Note
  • G (literal)
  • S (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#affiliazioni
  • Graziano Tisato, Piero Cosi, Giacomo Sommavilla, Claudio Zmarich Istituto di Scienze e Tecnologie della Cognizione Sezione di Padova - Fonetica e Dialettologia Via Martiri della Libertà 2 - 35137 Padova (now ISTC CNR, UOS Padova, Padova, Italy (literal)
Titolo
  • Nuovi strumenti di Interface per l’elaborazione delle facce parlanti (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#inCollana
  • V. Giordani, V. Bruseghini, P. Cosi (a cura di), Atti del III Convegno Nazionale dell’Associazione Italiana di Scienze della Voce (AISV), Trento, 29-30/11-1/12/2006, pp. 353-382. (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#isbn
  • 978-88-95112-69-5 (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#autoriVolume
  • Giordani V., Bruseghini V., Cosi P. (literal)
Http://www.cnr.it/ontology/cnr/pubblicazioni.owl#curatoriVolume
  • Giordani V., Bruseghini V., Cosi P. (literal)
Abstract
  • Questo articolo presenta gli sviluppi più recenti di InterFace, un software interattivo realizzato in Matlab all'ISTC-SPFD, per l'animazione audio-visuale delle Facce Parlanti. Per completezza di informazione, questo testo riprende ed integra in maniera esaustiva le presentazioni parziali già fatte precedentemente (Tisato et alii, 2005a, Tisato et alii, 2005b, Cosi et alii, 2005). La ricerca nel campo delle teorie di produzione e percezione della lingua parlata, del riconoscimento della voce, degli agenti conversazionali, dell'insegnamento delle lingue, della riabilitazione della voce, dello studio delle emozioni, ecc., deve far fronte a necessità sempre crescenti di elaborazione di dati articolatori ed acustici. La realizzazione di InterFace intende rispondere a queste esigenze con lo sviluppo di strumenti software adeguati alla complessità delle problematiche implicate. Per quanto riguarda in particolare i dati articolatori, InterFace permette di: o Estrarre le traiettorie 3D provenienti da sistemi di Motion Capture, e sottoporle a elaborazione come: filtraggio del rumore, eliminazione delle componenti dovute alla rototraslazione, riscalamento alle dimensioni della faccia da animare. o Definire un insieme di misure sulle traiettorie per ottenere i parametri articolatori voluti (ad es. apertura labiale, arrotondamento, protrusione, aggrottamento, asimmetrie labiali, ecc., con le relative misure di velocità ed accelerazione). o Ricavare da quelle stesse traiettorie articolatorie una modellizzazione dei parametri rilevanti dal punto di vista linguistico, che tenga in debito conto i fenomeni di coarticolazione. o Generare il flusso dei dati audio-visuali necessari all'animazione di un agente conversazionale, capace di esprimere emozioni. Per quanto riguarda, d'altra parte, le Facce Parlanti, il sistema può arrivare ad un set di parametri di sintesi, partendo da quattro differenti tipi di dati (Fig. 1): o Dati reali provenienti da sistemi di cattura degli andamenti cinematici dell'articolazione facciale. L'elaborazione di questi dati permette di realizzare una tipica Data-Driven Synthesis. o Dati testuali (puro testo o testo XML), da cui generare il flusso di dati audio-video di controllo dell'animazione facciale. Seguendo questo via, si ottiene una Text-to-Animation Synthesis, o anche, nel caso dell'XML, una Symbolic-Driven Synthesis. o Dati audio elaborati in modo da ricavare la segmentazione fonetica del parlato con un sistema di riconoscimento automatico, e ottenere così la sincronizzazione dell'animazione con un audio preesistente. Questa modalità può essere chiamata una Wav-to-Animation Synthesis. o Dati a basso livello, per controllare manualmente il movimento di uno o più parametri di animazione e verificarne l'effetto con la sintesi video. Quest'ultimo procedimento si può definire come una Manual-Driven Synthesis. (literal)
Editore
Prodotto di
Autore CNR
Insieme di parole chiave

Incoming links:


Autore CNR di
Prodotto
Editore di
Insieme di parole chiave di
data.CNR.it