پس از آشنایی با نحوه عملکرد روش FADEIN، در بخشهای بعدی روش پیشنهادی در این پایان نامه را با روش FADEIN در دو حالت ماتی تصاویر چهره بر اثر خارج زوم بودن سوژه نسبت به دوربین و ماتی بر اثر حرکت دوربین، از لحاظ سرعت و دقت بازشناسی مقایسه میکنیم.
نتایج شبیهسازی مربوط به عامل مات کننده خارج زوم بودن سوژه نسبت به دوربین
نتایج حاصل از بررسیهای انجام شده برروی عوامل ایجاد کننده خطا در سیستمهای بازشناسی چهره، نشان میدهد که دو عامل مات کننده تصویر ۱- ماتی بر اثر خارج زوم بودن سوژه نسبت به دوربین و ۲- ماتی بر اثر حرکت دوربین، سهم زیادی در بین عوامل ایجاد کننده خطا در این سیستمها دارند [۲۰]. از این جهت در این بخش به شبیهسازی روش پیشنهادی و روش FADEIN، جهت شناساییPSF مربوط به عامل ماتی بر اثر خارج زوم بودن سوژه نسبت به دوربین پرداخته و در بخش بعدی به شبیهسازی این دو روش، جهت شناساییPSF مربوط به عامل ماتی بر اثر حرکت دوربین پرداخته می شود.
همانطور که قبلا گفته شد، برای ایجاد فضای ویژگی مرحله آموزش، ابتدا باید مجموعه ای از تصاویر چهره را با بهره گرفتن از چند PSF مشخص (مربوط به عامل مات کننده ناشی از خارج زوم بودن سوژه نسبت به دوربین)، به صورت مصنوعی مات کرده و پس از اضافه کردن نویز (نویز گوسی سفید با میانگین صفر و توان dB30) به آنها، تصاویر چهره مات شده با PSF مشابه را در یک دسته قرار داد.
بدین منظور ابتدا به فراخوانی تصاویر چهره پرداخته و پس از نگاشت این تصاویر به حوزه فرکانس، با بهره گرفتن از پاسخ فرکانسی رابطه (۴-۴) به تشکیل ۱۶ N = دسته تصویر چهره مات شده توسط پنجرهای به ابعاد (۱۵×۱۵) با انحراف معیار (σ) از مقدار ۵/۰ تا ۸ با گام افزایش ۵/۰ میپردازیم.
(۴-۴) |
در این رابطه پنجره مربوط به عامل مات کننده ماتی بر اثر خارج زوم بودن سوژه نسبت به دوربین و σ میزان انحراف معیار گوسی مات کننده و مربوط به عبارت نرمالیزهکننده مقدار پنجره میباشد به صورتیکه حاصل انتگرال دوگانه این پنجره در جهت برابر یک شود. یعنی:
(۴-۵) |
نمونه ای از تصاویر چهره مات شده به صورت مصنوعی بر اثر خارج زوم بودن مخاطب نسبت به دوربین در شکل (۴-۵) نمایش داده شده است.
شکل (۴-۵): یک تصویر چهره شفاف به همراه نمونههای مات شده آن بر اثر خارج زوم بودن سوژه نسبت به دوربین و سپس اضافه کردن نویز به نمونههای مات شده
پس از نگاشت هر تصویر به حوزه فرکانس و مات کردن تصویر و اضافه کردن نویز به آن در هر دسته، جهت جداییپذیری بیشتر ویژگیها از عبارت حاصل شده لگاریتم گرفته می شود. سپس مقدار بیشینه این اطلاعات را جدا کرده و به عنوان ویژگیهای مورد نظر ذخیره میکنیم (از هر تصویر تعداد ۱۰۶ویژگی). سپس به منظور اعمال این ویژگیها به یک شبکه عصبی، ویژگیها را نرمالیزه میکنیم.
بعد از فراخوانی تمامی تصاویر در هر دسته و استخراج ویژگی از تمامی آنها، به هر مجموعه از این ویژگیها اندیسی مشابه به عنوان مقادیر مطلوب آن دسته و متناظر با شماره دسته نسبت داده می شود. حال پس از ایجاد فضای ویژگی مورد نظر و تصادفی کردن ترتیب قرار گرفتن این ویژگیها در این فضا (جهت آموزش آنها به شکل تصادفی)، نوبت به طراحی شبکه عصبی و اعمال این ویژگیها به عنوان ورودی به این شبکه عصبی میرسد، که در ادامه به توضیح آن میپردازیم.
همانطورکه در بخش قبل به آن اشاره شد، به علت زیاد بودن تعداد ویژگیهای استخراج شده از هر تصویر (از هر تصویر ۱۰۶ ویژگی)، و همچنین مهم بودن مساله سرعت شناساییPSF مات کننده تصویر چهره ورودی، در مرحله آزمایش؛ باید از نوعی شبکه عصبی استفاده کنیم که با این شرایط سازگار باشد. در این پایان نامه از شبکه عصبی MLP استفاده شده است. یکی از ویژگیهای این شبکه یادگیری تحت نظارت[۳۰] آن میباشد، که با توجه به فراهمکردن داده های اندیسگذاری شده در مرحله آموزش، به کارگیری این نوع شبکه کاری صحیح میباشد.
اطلاعات تکمیلی مربوط به طراحی این شبکه در جدول (۴-۵) نمایش داده شده است. همانطورکه در جدول (۴-۵) نیز به آن اشاره شده است، به منظور جلوگیری از آموزش بیش از حد نمونهها، معیار توقف آموزش شبکه عصبی بکاررفته براساس اعتبارسنجی[۳۱]، طراحی شده است. که در این مرحله میزان ۳۰ درصد از کل داده های فضای ویژگی برای تشکیل مجموعه ارزیابی[۳۲] تنظیم شده است. داده های موجود در مجموعه ارزیابی به طور کامل از داده های مجموعه آموزش جدا شده اند. در مورد طراحی تعداد نرونهای لایه میانی نیز پس از آزمایش شبکه با تعداد مختلف نرونهای لایه میانی به صورت تجربی، بیشترین بازده شبکه را در این پایان نامه برای تعداد بین ۳۰ تا ۴۲ نرون لایه میانی شاهد بودیم. در نتیجه برای کاهش مدت زمان آموزش از ۳۰ نرون استفادهکردهایم. در مورد طراحی نحوه آموزش نیز برای دور ماندن از به دام افتادن در کمینه محلی[۳۳] از روش آموزش افزایشی[۳۴]، برای آموزش داده های آموزشی در این شبکه استفاده شده است. نرخ آموزش این شبکه از مقدار اولیه ۰٫۶ شروع شده و با افزایش تعداد دوره های آموزش، کاهش مییابد.
جدول (۴-۵): اطلاعات تکمیلی مربوط به طراحی شبکه عصبی MLP
نحوه آموزش | تابع فعالساز | معیارتوقف آموزش | تعداد نرونهای ورودی |
تعداد لایه / نرون مخفی |
تعداد نرونهای خروجی |
حالت افزایشی | تابع سیگموید |