Please use this identifier to cite or link to this item: http://studentrepo.iium.edu.my/handle/123456789/11490
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorAbdul Wahab Abdul Rahman, Ph.Den_US
dc.contributor.advisorNorzaliza Md.Nor, Ph.Den_US
dc.contributor.advisorRaini Hassan, Ph.Den_US
dc.contributor.authorSuryady, Zeldien_US
dc.date.accessioned2023-07-20T03:11:38Z-
dc.date.available2023-07-20T03:11:38Z-
dc.date.issued2022-
dc.identifier.urihttp://studentrepo.iium.edu.my/handle/123456789/11490-
dc.description.abstractSeveral studies on physiological-based human emotion have suggested that emotion causes variations in various physiological parameters. As one of the physiological parameters, heart sound signals (also referred to as phonocardiography) may infer emotions and can possibly be used for emotion recognition. For this purpose, the use of Phonocardiography (PCG) signal is substantially cheaper, and the process of acquiring the signal for heart sound analysis is comfortable as compared to other physiological measures. Capturing heart-sound signals using PCG does not require touching the surface of the human body directly. Hence it offers a convenient and practical usage in various applications of emotion recognition. Additionally, unlike the use of electrocardiography (ECG) that reflects only heartbeats through the electrically conductive system of the heart, the PCG can also reflect the muscle contraction sound of the heart. Nevertheless, the use of PCG in the emotion recognition domain is still scarce in the research literature. As such, this thesis explored usability and methods for modelling emotion recognition using PCG signals. The thesis is developed with four major phases. (i) Since PCG data for emotion recognition are not widely available, the first phase performs the creation of the corpus for both PCG and EEG, hence, the performance for both modalities can be compared. (ii) The second phase investigates the most suitable method for building a computational model for PCG-based emotion recognition. Three cepstral-based features, namely, MFCC, LFCC, and GFCC, are considered in the experiment. The DNN, XGBoost, and Decision tree are selected as the classifiers. The initial experiments of this research indicate that the best model for recognizing emotion is achieved at 87% accuracy rate by using combination of MFCC feature extraction and DNN classifier, (iii) The third phase compares PCG-based emotion recognition using heart sound signal (PCG) with EEG modality. The experimental results implied that with techniques used in phase two, the PCG signal could achieve comparatively robust performance in recognizing emotion as compared to the EEG modality. (iv) In the fourth phase, a new computational approach is proposed and implemented by incorporating signal decomposition techniques such as Empirical Mode Decomposition (EMD). As the main issue with this approach is feature dimensionality, the PCA feature reduction technique is adopted in the proposed method. The proposed method demonstrated a robust and optimal performance of a PCG-based emotion recognition model, achieving overall accuracy rate at 98%. Overall, this research has highlighted the potential use of PCG signals for emotion recognition as an alternative to other commonly discussed modalities such as EEG. Additionally, the thesis also empirically proved that with proper methods in pre-processing the signal and the right feature extraction process and the suitable classifier, the PCG signal could achieve optimal performance in recognizing emotion. As future works, the proposed approach can be used to build a wide range of practical application of emotion recognition such as Ambient Assisted Living (AAL), whereby the patient’s mental state is required to be continuously monitored.en_US
dc.language.isoenen_US
dc.publisherKuala Lumpur : Kulliyyah of Information and Communication Technology, International Islamic University Malaysia, 2022en_US
dc.subject.lcshHuman-computer interactionen_US
dc.subject.lcshPhonocardiographyen_US
dc.subject.lcshEmotions -- Computer simulationen_US
dc.titleComputational cardio-physiological model of emotion using phonocardiographyen_US
dc.typeMaster Thesisen_US
dc.description.identityt11100383877ZeldiSuryadyen_US
dc.description.identifierThesis : Computational cardio-physiological model of emotion using phonocardiography / by Zeldi Suryadyen_US
dc.description.kulliyahKulliyyah of Information and Communication Technologyen_US
dc.description.programmeDoctor of Philosophy in Computer Scienceen_US
dc.description.abstractarabicفي السنوات الأخيرة، تم تطوير نظام التعرف على المشاعر البشرية الفسيولوجية باستخدام مخطط كهربائية الدماغ (EEG) باعتباره الطريقة الرئيسية. توفر الإشارة الفسيولوجية مثل بيانات EEG مزايا فريدة وموثوقة لاستنتاج المشاعر. لقد أشارت العديد من الدراسات إلى أن المشاعر تسبب اختلافات في مختلف المعايير الفسيولوجية لكونها احدى المعاملات الفسيولوجية، فإشارات صوت القلب (يشار إليها أيضًا باسم تخطيط صوت القلب) قد تستنتج مشاعرا عاطفية ويمكن استخدامها للتعرف على المشاعر. لأجل هذا يعد استخدام إشارة جهاز تخطيط أصوات القلب (PCG) أرخص عملية للحصول على إشارة لتحليل صوت القلب, أضف إلى ذالك,تكون إشارة جهاز تخطيط أصوات القلب (PCG) مريحة مقارنةً بالقياسات الفسيولوجية الأخرى, حيث أن التقاط إشارات صوت القلب باستخدام PCG لا يتطلب لمس سطح جسم الإنسان مباشرة. ومن ثم فإن إشارة تخطيط الصوت توفر استخدامًا مريحا ومناسبًا وعمليًا في تطبيق برامج مثل مساكن الرعاية الدائمة Ambient Assisted Living (AAL)، حيث يلزم مراقبة الحالة العقلية للمريض باستمرار. بالإضافة إلى ذلك، على عكس استخدام تخطيط القلب الكهربائي (ECG) الذي يعكس نبضات القلب فقط من خلال نظام التوصيل الكهربائي للقلب يمكن أن يعكس جهاز PCG أيضًا صوت تقلص عضلات القلب. ومع ذلك، فإن استخدام تخطيط أصوات القلب في مجال التعرف على المشاعر لا يزال نادرا في الأدبيات البحثية. على هذا النحو، استكشفت هذه الأطروحة قابلية الاستخدام وطرق نمذجة التعرف على المشاعر باستخدام إشارات PCG. تم تطوير الأطروحة في أربع مراحل رئيسية: (1) بسبب عدم توفر بيانات PCG للتعرف على المشاعر فى نطاق واسع، فقد قدمت هذه الأطروحة في المرحلة الأولى بإنشاء اجزاء أساسية جديدة لكل من PCG وEEG. لتتم مقارنة نتائج التعرف على المشاعر المستندة على الجهازين. ( 2) المرحلة الثانية هي التحقق من أنسب طريقة لبناء نموذج حسابي للتعرف على المشاعر القائمة على PCG. تم اعتبار ثلاث ميزات قائمة على تحليل سيبسترال وهي MFCC و LFCC و GFCC في التجربة. تم تحديد الشبكة العصبية العميقة DNN و XGBoost وشجرة القرار كمصنفات. اظهرت النتائج التجريبية في هذه المرحلة أن الجمع بين MFCC كاستخراج الميزات و DNN كمصنف للتعلم الآلي ساهم أكثر في تحسين الأداء عند مقارنته بالتقنيات الأخرى. (3) قامت المرحلة الثالثة بمقارنة التعرف على المشاعر المستندة إلى PCG باستخدام إشارة تخطيط أصوات القلب (PCG) مع طريقة EEG. أشارت النتائج التجريبية إلى أنه من خلال الأساليب والتقنيات المناسبة، يمكن أن تحقق إشارة PCG أقوى أداء في التعرف على المشاعر مقارنة مع طريقة EEG. (4) في المرحلة الرابعة، تم اقتراح نهج حسابي جديد وتنفيذه من خلال دمج تقنيات تحلل الإشارة مثل تحليل الوضع التجريبي (EMD). نظرًا لأن المشكلة الرئيسية في هذا النهج هي أبعاد الميزة، فقد تم اعتماد تقنية تقليل ميزة PCA في الطريقة المقترحة. أظهرت الطريقة المقترحة أداءً قويًا ومثاليًا لنموذج التعرف على المشاعر المستند إلى PCG بتحسن قدره 98%. بشكل عام، سلط هذا البحث الضوء على الاستخدام المحتمل لإشارات جهاز تخطيط أصوات القلب (PCG) للتعرف على المشاعر كبديل للطرائق الأخرى التي نوقشت بشكل شائع مثل مخطط كهربائية الدماغ (EEG). بالإضافة إلى ذلك، أثبتت الأطروحة أيضًا بشكل تجريبي أنه من خلال الأساليب المناسبة في المعالجة المسبقة للإشارة وعملية استخراج الميزة الصحيحة والمصنف المناسب يمكن لإشارة PCG تحقيق الأداء الأمثل في التعرف على المشاعر.en_US
dc.description.callnumbert QA 76.9 H85 S96C 2022en_US
dc.description.notesThesis (Ph.D)--International Islamic University Malaysia, 2022.en_US
dc.description.physicaldescriptionxviii, 179 leaves : illustrations ; 30cm.en_US
item.openairetypeMaster Thesis-
item.grantfulltextopen-
item.fulltextWith Fulltext-
item.languageiso639-1en-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
item.cerifentitytypePublications-
Appears in Collections:KICT Thesis
Files in This Item:
File Description SizeFormat 
t11100383877ZeldiSuryady_24.pdf24 pages file320.02 kBAdobe PDFView/Open
t11100383877ZeldiSuryady_SEC.pdf
  Restricted Access
Full text secured file2.69 MBAdobe PDFView/Open    Request a copy
Show simple item record

Google ScholarTM

Check


Items in this repository are protected by copyright, with all rights reserved, unless otherwise indicated. Please give due acknowledgement and credits to the original authors and IIUM where applicable. No items shall be used for commercialization purposes except with written consent from the author.