Identifikasi Viseme Untuk Fonem Bahasa Madura Berbasis Clustering Berdasarkan Facial Landmark Point

##plugins.themes.bootstrap3.article.main##

Pyepit Rinekso Andriyanto Joan San Endang Setyati

Abstrak

Bentuk bahasa yang paling efektif dalam berkomunikasi adalah bahasa lisan atau bicara. Ketika berbicara manusia akan menggerakkan mulut dan bibirnya untuk mengucapkan kata tertentu. Model gerakan mulut dan bibir ini menggambarkan suatu viseme (visual-phonem), yaitu sekelompok fonem yang memiliki visual atau tampilan yang hampir sama. Bahasa Madura merupakan bahasa yang unik dan memiliki beberapa ciri tertentu. Selain mempunyai tingkat bahasa, bahasa Madura mempunyai fonem-fonem yang beraspirasi atau pengucapan kata dengan cara dihembuskan seperti: /bh/, /dh/, /Dh/, /gh/ dan /jh/ yang tidak ada pada bahasa lainnya. Peneltian ini membahas tentang identifikasi kelas-kelas viseme untuk fonem bahasa Madura berbasis clustering berdasarkan facial landmark point. Dari 47 fonem bahasa Madura diperoleh 9 viseme bahasa Madura yang dihasilkan dari proses K-Means clustering. Proses clustering menggunakan ekstraksi fitur berdasarkan facial landmark point sehingga diperoleh perhitungan jarak pada setiap fitur. Fitur-fitur yang digunakan adalah fitur geometri. Model viseme bahasa Madura digunakan untuk membangun animasi mulut 2D dalam mengucapkan kata atau kalimat bahasa Madura berdasarkan inputan berupa teks. Manfaat dari penelitian ini adalah untuk tujuan pembelajaran dalam pengucapan kata atau kalimat bahasa Madura, karena bahasa Madura memiliki tulisan dan cara pengucapan yang berbeda.

##plugins.themes.bootstrap3.article.details##

Bagian
Articles
Referensi
Bear, H. L., & Harvey, R. (2016). Decoding visemes: Improving machine lip-reading Helen L. Bear and Richard Harvey. In Icassp 2016, 2009–2013.
Bozkurt, E., Erdem, Ç. E., Erzin, E., Erdem, T., & Özkan, M. (2007). Comparison of phoneme and viseme based acoustic units for speech driven realistic lip animation. In Proceedings of 3DTVCON. https ://doi.org/10.1109/3DTV.2007.43794 17
Luca Cappelletta and Naomi Harte, “Phoneme-to Viseme Mapping for Visual Speech Recognition,” Proceeding of the 2012 International Conference on Pattern Recognition Applications and Methods (ICPRAM 2012), February 7, 2012.
Setyati, E., Sumpeno, S., Purnomo, M. H., Mikami, K., Kakimoto, M., & Kondo, K. (2015). Phoneme-viseme mapping for Indonesian language based on blend shape animation. IAENG International Journal of Computer Science,42(3), 1–12.
Arifin, Muljono, Sumpeno, S., & Hariadi, M. 2013. Towards Building Indonesian Viseme: A Clustering-Based Approach. IEEE. 978-1-4673-6053-1/ 3/$31.00.
Kumar, K. T. Bibish, Kumar, R. K. S., Sandesh, E. P. A., Sourabh, S., & Lajish, V. L. 2019. Viseme set identification from Malayalam phonemes and allophones. International Journal of Speech Technology. https://doi.org/10.1007/s10772-019-09655-0
Brahme, A., & Bhadade, U. (2017). Phoneme visem mapping for Marathi language using linguistic approach. In ProceedingsInternational conference on global trends in signal processing, information computing and communication, ICGTSPICC 2016 (pp. 152–157).
Damien, P., Wakim, N., & Egéa, M. (2009). Phoneme-viseme mapping for modern, classical arabic language. In 2009 international conference on advances in computational tools for engineering applications, ACTEA 2009 (Vol. 2(1), pp. 547–552)
Bianca Aschenberner and Christian Weiss, “Phoneme-Viseme Mapping for German Video-Realistic Audio-Visual-Speech- Synthesis,” IKP-Working Paper NF 11, Institut für Kommunikations for Schung und Phonetik, Universität Bonn, 2005.
Pawitra, A. Kamus Lengkap Bahasa Madura Indonesia. Jakarta: Dian Rakyat. 2009.
Gleason, H. A. 1962. An Introduction to Descriptive Linguistics. New York: Holt, Reinehart and Winston
Han, S., Yang, Z., Li, Q., & Chen, Y. (2019). Deformed landmark fitting for sequential faces. Journal of Visual Communication and Image Representation, 381 - 393.
Z. Zhang, M. J. Lyons, M. Schuster, dan S. Akamatus, “Comparison between geometry-based and Gabor-wavelets-based facial expression recognition using multi-layer perceptron,” IEEE International Conference on Automatic Face & Gesture Recognition, no. November 2012, 1998.