Please use this identifier to cite or link to this item: http://studentrepo.iium.edu.my/handle/123456789/10647
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorNorsinnira Zainul Azlan, Ph.Den_US
dc.contributor.advisorAnis Nurashikin Nordin Zaki Ph.Den_US
dc.contributor.advisorHasan Firdaus Mohd Zaki Ph.Den_US
dc.contributor.authorChowdhury, Mohammad Masum Refaten_US
dc.date.accessioned2021-11-17T02:55:42Z-
dc.date.available2021-11-17T02:55:42Z-
dc.date.issued2021-
dc.identifier.urihttp://studentrepo.iium.edu.my/handle/123456789/10647-
dc.description.abstractFacial expression recognition (FER) enables computers or machine to identify human emotions. The FER system is used in self-driving cars, healthcare and smart environments. Most of the facial expression systems are based on computer vision and image processing technologies. Computer vision technologies are quite expensive since they need massive memory and computation resources. It also depends on the environment changes. However, sensors technologies overcome all the limitations because it does not need a massive amount of memory, expensive computation resources, and not depend on environment changes. This study aims to develop FER systems based on stretchable strain sensors data using machine learning in driving a rehabilitation system. Two different stretchable strain sensors (commercial and developed) are used to recognize four facial expressions (neutral, happy, sad and disgust). This study mainly focuses on the developed stretchable strain sensor, but this sensor is still developed in the laboratory and is not stable. So, the commercial stretchable strain sensor is used for the analysis of the developed sensor performance. The stretchable strain sensors data is time-series data with noise and high dimensionality. The datasets are normalized and aggregated to remove noise and high dimensionality. It is processed as an input to the machine learning model, and then it is compiled and fitted by five machine learning models, which are K- Nearest Neighbour (KNN), Decision Tree (DT), Support Vector Machine (SVM), Logistic Regression (LR) and Random Forest (RF) models. The training and testing results show that the RF model achieves the highest accuracy than other machine learning models. The RF FER model is then implemented in the experimental hardware test of the facial expression-driven rehabilitation system. When facial expression neutral, happy, sad, and disgust emotion, the elbow rehabilitation system (ERS) motor speed is 60%,80%,0% and 30% of its full speed, respectively. The simulation results show that RF has achieved 96% and 90% accuracy, respectively, in recognizing the correct facial expression using the three commercial and four developed sensors, respectively. The offline hardware experimental test results show that the facial expression has driven rehabilitation system has successfully achieved 93% and 83% accuracy. The three commercial and four developed stretchable strain sensor data to drive the rehabilitation system’s speed according to the facial expression displayed. In the real-time experimental test on five subjects, the system has achieved an accuracy of 75% in regulating the rehabilitation system's speed based on the actual users' facial expressions. The proposed study's limitation is that the stretchable strain sensors are uncomfortable for data collection and tests. However, the experimental results have proven that the proposed methods can drive the rehabilitation machine to move according to the recognized facial expression. The proposed system can enhance the rehabilitation system's comfort and safety according to the patients need. It will help the patients to recover better and faster and eventually improves their quality of life.en_US
dc.language.isoenen_US
dc.publisherKuala Lumpur : Kulliyyah of Engineering, International Islamic University Malaysia, 2021en_US
dc.subject.lcshHuman face recognition (Computer science)en_US
dc.subject.lcshArtificial intelligence -- Engineering applicationsen_US
dc.titleMachine learning-based facial expression recognition using stretchable strain sensors for rehabilitation systemen_US
dc.typeMaster Thesisen_US
dc.description.identityt11100393567MohammadMasumRefatChowdhuryen_US
dc.description.identifierThesis : Machine learning-based facial expression recogniton using stretchable strain sensors for rehabilitation system /by Mohammad Masum Refat Chowdhuryen_US
dc.description.kulliyahKulliyyah of Engineeringen_US
dc.description.programmeMaster of Science (Mechatronics Engineering)en_US
dc.description.abstractarabicتعمل أنظمة التعرف على تعبيرات الوجه (FER) على تمكين أجهزة الكمبيوتر والآلات من تعلم المشاعر البشرية. يستخدم نظام التعرف على تعابير الوجه في السيارات ذاتية القيادة وفي الرعاية الصحية والبيئات الذكية. تعتمد معظم أنظمة تعبيرات الوجه السابقة على الرؤية الحاسوبية وتقنيات معالجة الصور. ولكن هذه التقنيات باهظة الثمن لأنها تحتاج إلى ذاكرة وموارد حاسوبية ضخمة. على الرغم من اعتماد الرؤية الحاسوبية على التغيرات البيئية، فإن تقنيات المستشعرات تتغلب على جميع القيود لأنها رخيصة الثمن وتستهلك القليل من الطاقة وتتميز بالاتصال اللاسلكي وتمتلك سعة وسرعة معالجة بيانات عاليتين. تهدف هذه الدراسة إلى تطوير أنظمة التعرف على تعبيرات الوجه وتصنيفها بناءً على بيانات المستشعرات المطاطية باستخدام تعلم الآلة لدفع نظام إعادة التأهيل. يتم استخدام مستشعرين مطاطيين مختلفين (تجاري ومطوّر) للتعرف على أربع تعبيرات للوجه (محايد وسعيد وحزين ومشمئز). بيانات المستشعر المطاطي هي بيانات متسلسلة زمنياً مع ضوضاء وأبعاد بيانية مرتفعة، لذلك تتم تسوية مجموعات البيانات وتجميعها لإزالة الضوضاء والأبعاد المرتفعة، حيث تتم معالجتها كمدخلات في نموذج تعلم الآلة، ثم يتم تجميع النموذج وتركيبه بواسطة خمس خوارزميات، وهي: أقرب جار (KNN)، وشجرة القرار (DT)، وآلة متجه الدعم (SVM)، والانحدار اللوجستي (LR) وخوارزميات الغابة العشوائية (RF). يُظهر التدريب واختبار النتائج أن خوارزميات RFتحقق أعلى دقة مقارنة بخوارزميات التعلم الآلي الأخرى. نموذج تعبيرات الوجه RF هو بعد ذلك في اختبار الأجهزة التجريبية لنظام إعادة التأهيل القائم على تعبيرات الوجه. إذا تم التعرف على تعبير الوجه السعيد ، فسيتم ضبط سرعة الماكينة على 80٪. إذا تم الكشف عن تعبير وجه حزين ، فلن تتحرك سرعة الماكينة 0٪. إذا تم التعرف على تعبير الوجه المحايد ، يتم ضبط سرعة الماكينة على 60٪. إذا تم الكشف عن تعبير عن الاشمئزاز ، يتم تنظيم سرعة الماكينة إلى 30٪. تظهر نتائج المحاكاة أن التعلم الآلي لـ RF قد حقق دقة تصل إلى 96٪ و 90٪ على التوالي في التعرف على تعبيرات الوجه الصحيحة باستخدام المستشعرات التجارية والمتطورة ، على التوالي. تُظهر نتائج الاختبار التجريبي للأجهزة غير المتصلة بالإنترنت أن تعبيرات الوجه دفعت نظام إعادة التأهيل إلى تحقيق دقة تصل إلى 93٪ و 83٪ بنجاح مع بيانات أجهزة الاستشعار التجارية والمطوّرة في دفع سرعة نظام إعادة التأهيل وفقًا لتعبيرات الوجه المعروضة. في الاختبار التجريبي في الوقت الفعلي على خمسة مواضيع ، حقق النظام دقة تبلغ 75٪ في تنظيم سرعة نظام إعادة التأهيل بناءً على تعبيرات وجه المستخدمين الفعلية. أثبتت النتائج التجريبية أن الطرق المقترحة قد دفعت بنجاح آلة إعادة التأهيل للتحرك وفقًا لتعبيرات الوجه المعترف بها. يعزز النظام المقترح من راحة وسلامة جهاز إعادة التأهيل وفقًا لاحتياجات المرضى. سيساعد هذا المرضى على التعافي بشكل أفضل وأسرع ، وفي النهاية يحسن نوعية حياتهم.en_US
dc.description.callnumbert TA 1653 C552M 2021en_US
dc.description.notesThesis (MSMCT)--International Islamic University Malaysia, 2021.en_US
dc.description.physicaldescriptionxviii, 109 leaves : colour illustrations ; 30cm.en_US
item.openairetypeMaster Thesis-
item.grantfulltextopen-
item.fulltextWith Fulltext-
item.languageiso639-1en-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
item.cerifentitytypePublications-
Appears in Collections:KOE Thesis
Files in This Item:
File Description SizeFormat 
t11100393567MohammadMasumRefatChowdhury_24.pdf24 pages file562.42 kBAdobe PDFView/Open
t11100393567MohammadMasumRefatChowdhury_SEC.pdf
  Restricted Access
Full text secured file3.84 MBAdobe PDFView/Open    Request a copy
Show simple item record

Google ScholarTM

Check


Items in this repository are protected by copyright, with all rights reserved, unless otherwise indicated. Please give due acknowledgement and credits to the original authors and IIUM where applicable. No items shall be used for commercialization purposes except with written consent from the author.