Please use this identifier to cite or link to this item: http://studentrepo.iium.edu.my/handle/123456789/11331
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorMalik Arman Morshidi, Ph.Den_US
dc.contributor.advisorTeddy Surya Gunawan, Ph.Den_US
dc.contributor.advisorRashidah Funke Olanrewaju, Ph.Den_US
dc.contributor.authorAlam, Mir Suhailen_US
dc.date.accessioned2023-03-29T07:00:20Z-
dc.date.available2023-03-29T07:00:20Z-
dc.date.issued2022-
dc.identifier.urihttp://studentrepo.iium.edu.my/handle/123456789/11331-
dc.description.abstractAugmented Reality (AR) applications have become increasingly ubiquitous as it integrates virtual information such as images, 3D objects, video and more to the real world, which further enhances the real environment. AR functions as an interface by superimposing virtual world information on top of the real environment. Moreover, image registration is critical in computer vision. Image registration is widely employed in a variety of applications, including image matching, change detection, 3D reconstruction, mobile robots and more. However, the main concern in the augmented reality is the registration of virtual information, or how to stack the virtual information generated by a computer into a real environment based on its surroundings. Vision-based pose estimation in augmented reality application has been widely investigated. Though, many of the earlier techniques relied on markers, and vision-based registration on mobile devices is currently too computationally expensive and imprecise. The accuracy of vision-based pose estimation approach is degraded due to illumination changes from frame-to-frame image sequence. This may cause jitter in the estimated pose. Many researchers have investigated the pose estimation and augmentation of the 3D virtual object in the physical environment. However, certain loopholes exist in the existing system while estimating the object’s pose, making it inaccurate for Mobile Augmented Reality (MAR) applications. This study proposes to estimate the pose of an object by blending both vision-based technique and MEMS sensor (gyroscope) to minimize the jitter problem in MAR. The algorithm used for feature detection and description is Oriented-FAST Rotated-BRIEF (ORB), whereas to evaluate the homography for pose estimation, Random Sample Consensus (RANSAC) is used. We evaluated the performance of augmenting the 3D object using the both the techniques which includes vision data only and incorporating the sensor data with the vision data. After extensive experiments, the validity of the proposed method was superior to the existing vision-based pose estimation algorithms. The proposed method has proven to be successful in overcoming the problem of jitter in the existing system. The proposed algorithm was benchmarked with two other algorithms, where some shortcoming in the latter were addressed such as computational cost, however, the issues of gyroscope like drift remains limitation.en_US
dc.language.isoenen_US
dc.publisherKuala Lumpur : Kulliyyah of Engineering, International Islamic University Malaysia, 2022en_US
dc.subject.lcshAugmented realityen_US
dc.subject.lcshMobile communication systemsen_US
dc.subject.lcshThree-dimensional imaging -- Techniqueen_US
dc.subject.lcshAlgorithmen_US
dc.titleNovel pose estimation algorithm for mobile augmented reality based on inertial sensor fusionen_US
dc.typeMaster Thesisen_US
dc.description.identityt11100384433MirSuhailAlamen_US
dc.description.identifierThesis : Novel pose estimation algorithm for mobile augmented reality based on inertial sensor fusion / by Mir Suhail Alamen_US
dc.description.kulliyahKulliyyah of Engineeringen_US
dc.description.programmeMaster of Science (Computer and Information Engineering)en_US
dc.description.abstractarabicأصبحت تطبيقات الواقع المعزز (AR) منتشرة على نطاق واسع لأنها تدمج العناصر الافتراضية مثل الصور والأشكال ثلاثية الأبعاد والفيديو إلى العالم الحقيقي ، وبالتالي فإن الواقع المعزز يثري التفاعل مع البيئة. يعمل الواقع المعزز كواجهة ، حيث يقوم بتركيب معلومات العالم الافتراضي فوق البيئة الحقيقية. علاوة على ذلك ، يعد تسجيل الصور أمرًا بالغ الأهمية في رؤية الكمبيوتر. يتم استخدام تسجيل الصور على نطاق واسع في مجموعة متنوعة من التطبيقات ، بما في ذلك مطابقة الصور ، واكتشاف التغيير ، وإعادة البناء ثلاثي الأبعاد ، و الروبوتات المتنقلة. ومع ذلك ، فإن العقبة الرئيسية في الواقع المعزز هي تسجيل المعلومات الافتراضية ، بمعنى آخر كيفية تكديس المعلومات الافتراضية التي تم إنشاؤها بواسطة الكمبيوتر في محيط البيئة الحقيقية. تمت دراسة تقدير الوضع القائم على الرؤية في تطبيقات الواقع المعزز على نطاق واسع. على الرغم من أن العديد من التقنيات السابقة كانت تعتمد على العلامات ، إلا أن التسجيل المستند إلى الرؤية على الأجهزة المحمولة يعد حاليًا مكلفًا للغاية وغير دقيق من الناحية الحسابية. تتدهور دقة نهج تقدير الوضع القائم على الرؤية نتيجة لتغيرات الإضاءة من تسلسل صورة من إطار إلى إطار. وهذا بدوره قد يسبب توترًا في الوضع المقدر. درس العديد من الباحثين تقدير الوضع والتكبير البصري للعناصر الافتراضية ثلاثية الأبعاد في البيئة المادية. ومع ذلك ، توجد بعض الثغرات في النظام الحالي أثناء تقدير وضع الكائن ، مما يجعلها غير دقيقة في تطبيقات الواقع المعزز للجوال (MAR). تقترح هذه الدراسة تقدير وضعية المجسم عن طريق دمج مستشعر MEMS (جيروسكوب) بتقنية قائمة على الرؤية لتقليل مشكلة الاهتزاز في MAR. الخوارزمية المستخدمة لاكتشاف الميزات ووصفها هي موجَّهة - سريعة الدوران - موجز (ORB). بينما لتقييم التجانس لتقدير الوضع ، تم استخدام توافق العينة العشوائية (RANSAC). قمنا بتقييم أداء الزيادة المرئية للعنصر ثلاثي الأبعاد باستخدام كل من التقنيات القائمة على الرؤية وبعد دمج بيانات المستشعر مع بيانات الرؤية. بعد تجارب مكثفة ، أصبحت الطريقة المقترحة متفوقة على خوارزميات تقدير الوضع القائمة على الرؤية الحالية. أثبتت الطريقة المقترحة نجاحها في التغلب على مشكلة الاهتزاز في النظام الحالي. تم قياس الخوارزمية المقترحة مقابل خوارزميتين أخريين ، حيث تمت معالجة بعض أوجه .القصور في الخوارزميتين مثل التكلفة الحسابية ، ومع ذلك ، لا تزال مشاكل الجيروسكوب مثل الانجراف دون حل.en_US
dc.description.callnumbert QA 76.9 A94 A318N 2022en_US
dc.description.notesThesis (MSCIE)--International Islamic University Malaysia, 2022.en_US
dc.description.physicaldescriptionxiv, 112 leaves : illustrations ; 30cm.en_US
item.openairetypeMaster Thesis-
item.grantfulltextopen-
item.fulltextWith Fulltext-
item.languageiso639-1en-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
item.cerifentitytypePublications-
Appears in Collections:KOE Thesis
Files in This Item:
File Description SizeFormat 
t11100384433MirSuhailAlam_24.pdf24 pages file553.85 kBAdobe PDFView/Open
t11100384433MirSuhailAlam_SEC.pdf
  Restricted Access
Full text secured file2.52 MBAdobe PDFView/Open    Request a copy
Show simple item record

Google ScholarTM

Check


Items in this repository are protected by copyright, with all rights reserved, unless otherwise indicated. Please give due acknowledgement and credits to the original authors and IIUM where applicable. No items shall be used for commercialization purposes except with written consent from the author.