Acoustic and Semantic Modeling of Emotion in Spoken Language
Diese Dissertation verbessert das Verständnis und die Synthese von Emotionen in der gesprochenen Sprache durch die gemeinsame Modellierung akustischer und semantischer Merkmale mittels vorab trainierter Repräsentationen, hierarchischer Erkennungssysteme für Gespräche sowie eines textlosen Frameworks für die Emotionsstilübertragung.