Érzelmi állapotok
A 2004. szeptemberben lezárult uniós PF-STAR (Preparing future multisensorial interaction research, a jövőbeli több érzékszervi interakció-kutatás előkészítése) három területre összpontosult: a kutatók a beszédről beszédre fordítást (speech-to-speech translation, SST), az érzelmi állapotok észlelését és kifejezését, valamint a gyerekek számára fejlesztendő alapvető beszédtechnológiákat vizsgálták. A többnyelvű és több érzékszerve ható kommunikáció (Multilingual and Multisensorial Communication, MMC) alapjait igyekeztek lerakni.
A beszédet kísérő vizuális és audió jegyek, az elhangzottak értelmezése felettébb bonyolult feladat. Az arckifejezések, gesztusok, a hangmagasság, a hangszín váltakozása egyaránt fontos szerepet játszanak az emberi interakcióban. A mindennapos kommunikáció árnyalt (és egyben rendkívül kifejező) jegyei születésünk óta fejlődtek ki bennünk; teljesen ösztönösen használjuk őket.
Hogyan tanítsuk meg mindezt a computereknek, miként közelítsük meg a gépi kommunikációt?
Megszólalnak a virtuális ágensek
A projektben részt vett stockholmi Királyi Technológiai Intézet (KTH) és az olasz Istituto Trentino di Cultura hivatásos színészeket alkalmaztak, rajtuk vizsgálták, hogyan változik meg az arckifejezés és a beszédtónus érzelmi megnyilvánulások során. Azt is figyelembe vették, hogy az arckifejezések kultúránként eltérhetnek egymástól. Az információt adatbázisokban tárolták, s amikor összegyűlt a megfelelő mennyiség és minőség, az emberi arc gépi hasonmásait, 2 vagy 3D-s animált beszélő fejeket (virtuális ágenseket) hoztak létre.
A PF-STAR legfőbb újdonságát azonban nem ők, hanem a beszédkutatásban elért eredmények jelentették. [Beszélgető, a kommunikáció során érzelmi reakciót mutató "robotok" több más projektben is szerepelnek: EURéka, Laura , automatizált oktatórendszerek, stb.]