Ez egy előző félévben kiírt, archivált téma.
A beszéd közbeni nyelvmozgásról rendelkezésre állnak kutatási eredmények, melyeket eddig ultrahang / EMA / MRI / röntgen technológiák segítségével vizsgáltak. Az újabb ultrahangos technológiákat (nagyfelbontású és nagysebességű 2D / 3D / valós idejű 3D) azonban korábban nem alkalmazták beszédkutatási célokra. A hallgató feladata egy már korábban rögzített párhuzamos beszéd és ultrahangos videó adatbázis elemzése és feldolgozása. Választható feladat többek között a nyelvkontúr követő algoritmusok tesztelése és megvalósítása, valamint az artikulációs mozgás és az akusztikus jel összehasonlítása, és annak vizsgálata, hogy ezek beszédtechnológiában hogyan használhatóak fel. A hallgató feladata deep learning alapú (pl. előre csatolt és rekurrens mély neurális hálózatok) megoldás kidolgozása a témakörben. Javasolt programozási nyelvek: Python / Octave. A kutatás az MTA-ELTE Lingvális Artikuláció Kutatócsoporttal (Lendület pályázat, http://lingart.elte.hu) együttműködésben történik.
Automatic contour tracking of ultrasound tongue images using deep learning methods. The task of the student is to analyze ultrasound images using a large-scale multi-speaker database and develop deep learning (e.g. feedforward deep neural network, recurrent network) solutions for the topic. Suggested programming languages: Python / Octave. The research will be conducted in collaboration with the MTA-ELTE Lingual Articulation Research Group (Momemtum grant, http://lingart.elte.hu/en).