ویژگی

نماد اختصاری

دامنه ماکزیمم سیگنال

AMP

دامنه مینیمم سیگنال

-AMP

ناحیه مثبت

PAR

ناحیه منفی

NAR

قدر مطلق ناحیه منفی

NANR

مجموع ناحیه

TAR

قدر مطلق مجموع ناحیه

ATAR

قدر مطلق مجموع ناحیه

TAAR

پیک تا پیک سیگنال

PP

۳-۴- استخراج ویژگی با مدل خودبازگشتی(AR[17])
روش مدلسازی خود بازگشتی یکی از مدل‌های اتفاقی است که برای نمایش سیگنال‌های غیر ایستا بسیار مورد استفاده می‌باشد. در این مدل، مقادیر جاری سیگنال به صورت جمع خطی از تعداد محدودی از مقادیر قبلی بعلاوه خطای e(n) بیان می‌شود. بنابر این پردازش به صورت ۳-۲ مدل می‌شود:

(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))

(۳-۲)
به طوری‌که می توان گفت x(n) سیگنال مورد نظر، e(n) نویز سفید با میانگین صفر و واریانس مجهول، ها ضرایب و p مرتبه مدل AR می‌باشد. در این معادله متغیر x(n) به مقادیر قبلی خودش وابسته است. روش های متعددی بطور رایج برای تخمین ضرایب AR استفاده می‌شود]۲[.
۳-۵- استراتژی انتخاب ویژگی
انتخاب ویژگی فرآیندی است که ویژگی‌های با قدرت تشخیص بالاتر و موثرتر را از مجموعه‌های داده برای انجام اعمال داده کاوی انتخاب می‌کند. مرحله مقدماتی فرایند انتخاب ویژگی عبارتند از: شناسایی مجموعه ویژگی‌ها و جستجو برای بهترین زیر مجموعه. مجموعه پارامترها اغلب شامل الگوریتم‌های یادگیری الگوریتم های انتخاب و فرآیندهای تخمین خطا می‌باشند. البته این مسئله کاملا روشن است که هیچ مجموعه ویژگی به تنهایی برای کلیه‌ی مسائل داده کاوی کارا نمی‌باشد.
الگوریتم‌های انتخاب ویژگی به طور کلی به سه دسته تقسیم می‌شوند: مدل‌های فیلتر، مدل‌های رپر[۱۸] و مدل‌های ترکیبی]۱۳[. مدل‌های فیلتر از مشخصات ذاتی یا آماری ویژگی‌های مجموعه‌های داده استفاده می کنند و از هر گونه الگوریتم یادگیری مستقل اند. چنین رویه‌هایی شامل ماشین یادگیری نمی‌باشند و برای مجموعه داده‌های با ابعاد بالا موثر بوده و پیشنهاد می‌شوند. در مقابل مدل‌های رپر از ماشین‌های یادگیری استفاده کرده و زیرمجموعه ویژگی‌ها را بر اساس تخمین کارایی انتخاب می‌کنند. در مقایسه با فیلتر‌ها رپرها دارای زمان و هزینه‌های محاسباتی بالاتری بوده و برای مجموعه داده‌های با ابعاد بالا مناسب نمی‌باشد. مزیت اصلی رپرها در دقت بالای پیش‌بینی آنها است. نتایج جستجوی رپرها برای یافتن بهترین زیر مجموعه ویژگی بسیار بالاتر از فیلتر‌ها گزارش شده است. برای انتخاب ویژگی خوب،تلاش اصلی فرایند جستجو باید شناخت ویژگی‌های موثر و غیر افزونه باشد]۲۵[. اغلب روش‌های ترکیبی فیلتر و رپر از فیلترها جهت رتبه‌بندی ویژگی‌ها و کاهش تعداد ویژگی‌های کاندید استفاده می‌کنند. به طور کلی مدل‌های ترکیبی بر اساس رویه‌های ترتیبی دو مرحله‌ای کار می‌کنند.در مرحله اول معمولا براساس فیلترها تعداد ویژگی‌های مورد نظر برای مرحله دوم کاهش می‌یابند. سپس با بهره گرفتن از مجموعه کاهش یافته یک رویه رپر در مرحله دوم جهت انتخاب ویژگی‌های مطلوب اعمال می‌شود.
۳-۶- تحلیل مولفه اصلی (PCA)
در روش تحلیل مؤلفه‌های اصلی، محور‌های مختصات جدیدی برای داده‌ها تعریف می‌شود به گونه ای که نخستین محور در جهتی قرار می‌گیرد که واریانس داده‌ها بیشینه است و دومین محور نیز عمود بر محور اول و در جهتی که واریانس داده ها بیشینه باشد،در نظر گرفته می‌شود و به همین ترتیب، محورهای بعدی عمود بر تمامی محورهای قبلی به گونه‌ای قرار می‌گیرند که واریانس داده‌ها در آن جهت بیشینه باشد]۴[.تحلیل مولفه اصلی یکی از روش‌های مرسوم استخراج ویژگی است که در بسیاری از پژوهش‌ها به دلیل سادگی و سرعت بالا در پردازش از آن استفاده می‌شود]۲۶[. تکنیک PCA بهترین روش برای کاهش ابعاد داده به صورت خطی می‌باشد یعنی با حذف ضرایب کم اهمیت بدست آمده از این تبدیل،اطلاعات از دست رفته نسبت به روش های دیگر کمتر است.
فرض کنید ماتریس ورودی X دارای نمونه و n ویژگی است و نمونه باید در C گروه قرار گیرند، میانگین و کوواریانس داده با توجه به روابط (۳-۳) و (۳-۴) محاسبه می­شوند [۳۸]:
(۳-۳) (۳-۴)
در مرحله­ بعد، مقادیر ویژه و بردارهای ویژه از روی ماتریس کواریانس محاسبه می‌شوند. سپس، تعداد k مقدار ویژه بزرگتر از n مقدار ویژه انتخاب می‌شوند. حال ماتریس ورودی X تحت ماتریس بردار ویژه P با تعداد k ویژگی، به فضای تحلیل مولفه‌اصلی تبدیل می‌شود:
(۳-۵)

موضوعات: بدون موضوع  لینک ثابت


فرم در حال بارگذاری ...