عدی
پس از آموزش یک شبکه خودسازمان ده، به تعداد نرون های انتخابی برای شبکه، بردارهای وزنی n بعدی به دست خواهد آمد که هر یک نمایانگر بخشی از فضای مورد تحلیل است. در صورت انتخاب تعداد مناسب نـرون، ابعـاد شـبکه و در نهایت آموزش مناسب شبکه، نمایش بردارهای وزنی متناظر با نرون های هر نقشه می تواند به خوبی نمایانگر فضای مورد تحلیل باشد. بدین منظور متناظر با مقـدار هـر مشخصـه دربــردار وزنــی یــک بــردارRGB و در نتیجــه یــک رنــگدرنظرگرفته می شود [٣۴]. به گونـه ای کـه کلیـه مقـادیر بـااستفاده از طیف رنگی، از آبی تیره برای کمتـرین مقـدار تـاقرمز تیره برای بیشترین مقدار، قابل نمایش باشد. توضـیحاﹰRGB از فرمت های استاندارد تعریف رنـگ هاسـت کـه هـررنگی را با توجه به میزان شدت رنگ های اصلی و از ترکیب آنها قابل حصول می سازد.
بدین ترتیب به ازاء هر مشخصه، رنگ هر نرون تعیین شـدهو نقشه متناظر با آن مشخصه به دست می آید. با به دسـت آمـدننقشه های مشخصات، بررسی ارتباط متقابل میان مشخصـه هـا وتست همبستگی بین آنها امکان پذیر مـی گـردد . بـه عنـوان مثـالهم رنگ بودن قسمت های متناظر دو نقشه، نشـان دهنـده وجـودرابطه و همبستگی مشخصه های متناظر با هـر مشخصـه اسـت . میـزان رابطـه موجـود و شـدت همبسـتگی میـان دو متغیـر در قسمت های مختلف فضا نیز از شدت تفاوت یا تشابه رنگ میان نقشه های متناظر با هر یک از متغیرها قابل بررسی اسـت . البتـهممکن است شدت و یا حتی نوع رابطه موجود بین دو مشخصه
ج

شکل ۴ – نمونه ای از نقش ههای SOM در تحلیل الگوهای پیچیده

در نقاط مختلف فضا متفاوت و متأثر از مقدار سایر مشخصه هـانیز باشد که همگی با استفاده از نقشه های SOM به خوبی قابـلنمایش و مشاهده هستند. در شـکل (۴) مـی توانیـد نمونـه ای از نقشه های SOM وکاربردهای شبکه های خودسازمان ده در تحلیل الگوهای پیچیده و نمـایش همزمـان اثـرات متقابـل متغیرهـایمختلف بر یکدیگر را مشاهده نمایید.
همان گونه که از شـکل (۴) مشـخص اسـت فضـای مـوردتحلیل دارای پنج بعد می باشد. از مقایسه نقشه هـای مـذکور بـایکدیگر اطلاعات زیادی از جمله موارد زیر قابل استنتاج است:
– متغیرهــای دوم و پــنجم و همچنــین متغیرهــای اول وچهارم در تمامی دامنه تغییرات خود دارای رابطـه و همبسـتگیمعکوس می باشند. گرچـه شـدت همبسـتگی متغیرهـای دوم وپنجم و در تمامی نقاط فضا تقریباﹰ ثابت است، اما ایـن نکتـه درمورد متغیر های اول و چهارم صادق نیست.
– متغیرهای سوم و پنجم نیـز دارای همبسـتگی معکـوسهستند اما شدت همبسـتگی آنهـا در تمـامی نقـاط فضـا ثابـتنمی باشد. همچنین شدت این همبستگی از شدت همبستگی بین متغیرهای دوم و پنجم کمتر است.
– متغیرهای دوم و سوم دارای همبستگی مستقیم انـد ولـیشدت همبستگی آنها وابسته به مقادیر سایر متغیرهاست.
– همبستگی متغیرهای اول، چهارم و پنجم کاملاﹰ غیرخطی ج بوده و شدت آن در نقاط مختلف فضا متفاوت است.

شکل ۵ – نمونه ای از یک ماتریس دست هبندی

-٣ -١ – ماتریس دسته بندی
از جمله دیگر خروجی های شبکه های خودسـازمان ده مـاتریسدسته بندی و متناظر با آن نقشه دسته بندی است. درایه هـای ایـنماتریس، فاصله جبری نرورن های همسایه از یکـدیگر را نشـانمی دهد. در صورتی که مشخصـات دو قسـمت از فضـای مـوردتحلیل به یکدیگر شبیه باشند، فاصـله جبـری بردارهـای وزنـینرون های متناظر با آنها کم خواهد بود و به عبارت دیگر هر دو نرون متعلق به خوشه واحدی از فضای مورد تحلیل هسـتند . در طرف مقابل هر مقدار فاصله جبری میـان نـرون هـای همسـایهبیشتر باشد، نشان دهنده تفاوت بیشـتر میـان فضـای متنـاظر بـاآنهاست لذا می توان آنها را در دو خوشه متفاوت قرار داد. شکل (۵) نمونه ای از یک ماتریس دسته بندی را با تعـدادی خوشـه وزیرخوشه از یک فضای دو بعدی را نشان می دهد.

– روش شبکه های عصبی مصنوعی(ANNs)
شبکه های عصبی مصنوعی از جمله رو شهایی هستند که قـادربـه تخمــین مـوارد غیرخطــی متعـدد در داده هــا بـوده و یــک چارچوب محاسبه ای انعطاف پذیر برای دامنه وسیعی از مسـائلغیرخطی می باشند. یکی از مزیت های بـارز ایـن گونـه مـدل هـانسبت به مدل های دیگر غیرخطی، ایـن اسـت کـه شـبکه هـایعصبی مصنوعی یک تقریب زننده جهانی هستند که می توانند هر نوع تابعی را با دقت دلخواه تقریب بزنند. این نـوع از شـبکه هـانیاز به هیچ گونه پـیش فرضـی در مـورد شـکل مـدل در فرآینـدمدل سازی نداشته و به طورکلی یک مدل مبتنی بر داده می باشـند [٣۵]. این گونه مدل ها از سه لایه پردازش ساده اطلاعات متصل به هم تشکیل شده اند. رابطـه بـین خروجـی (yt ) و ورودی هـا
:به صورت زیر است (x ,x ,…,x12p )
QP
yt

b0wj g(b0jwi,j x )it (۵)
به طوری که w ,wij j پارامترهای مدل بـوده کـه غالبـاﹰ وزن هـایاتصالی نامیده می شوند، P تعـداد گـره هـای ورودی وQ تعـدا د گره های مخفی هستند. تابع سیگموئیدی اغلـب بـه عنـوان تـابعفعال سازی لایه مخفی مورد استفاده قرار می گیرد: (۶)

= ( )g x
از اینرو مدل شبکه های عصبی مصنوعی رابطـه (٢) در حقیقـتبه عنوان یک نگاشت غیرخطی از مشـاهدات گذشـته بـه مقـدارآینده خواهد بود، یعنی: (۷) yt = f x ,x ,…,x ,w( 1 2 p )+εt
به طوری که W بردار همه پارامترها و f تابعی اسـت کـه توسـطساختار شبکه عصبی و وزن های اتصالی تعیین می گردد، از اینرو شبکه های عصبی معادل مدل خودرگرسیون غیرخطی هستند.
مدل ساده بیان شده توسط رابطـه (۵) دارای قـدرت تقریـببسیار زیادی می باشد، چرا که قادر است هر تابع دلخـواه را بـهشرط آنکه تعداد گره های مخفی (Q) به اندازه کافی بزرگ باشـدرا تقریب بزند. در عمل ساختار شبکه عصبی سـاده کـه تعـدادنرون کمتری در لایه مخفی دارد غالباﹰ در پیش بینی های خارج از نمونه بهتر عمل می کند و این بـه دلیـل دوری جسـتن از مسـئله برازش بیش از حـد اسـت کـه عمـدتﹰا در فرآینـد مـدل سـازیشبکه های عصبی رخ می دهد.
یک مدل بیش از حد برازش شده، برای داده هایی که در ساخت مدل (داده های آموزشی) استفاده شده اند بـرازش خـوبی نشـانمی دهد اما توانایی تعمـیم آن، بـرای داده هـای خـارج از نمونـهبسیار ضعیف است [٣۴]. انتخاب تعداد نرون های لایـه مخفـیوابسته به داده ها بوده و هیچ قانون سیستماتیکی به منظور تعیـیناین پارامتر در طراحی شبکه های عصبی وجود ندارد. علاوه بـراین، مرحله مهم دیگر مدل سازی شـبکه هـای عصـبی، انتخـابتعداد وقفه های موجـود در مشـاهدات بـه عنـو ان بـردار ورودیشبکه است که شاید مهم تـرین پـارامتر در طراحـی مـدل هـایشبکه های عصبی مصنوعی باشـد، زیـرا ایـن پـارامتر در تعیـینساختار خود همبسته غیرخطی سر یهای زمـانی نقـش اساسـیدارد. هیچ تئوری خاصی جهت انتخاب P وجود ندارد، از اینرو تجربه و آزمایشات، مشخص کننده مقدار مناسب P وQ خواهند بود. هنگامیکه یک ساختار شبکه ای P وQ مشخص شد شـبکهآماده آموزش فرآیند تخمین پارامترها است. همانند مـدل سـازیخودرگرسیون میانگین متحـرک انباشـته، پارامترهـا بـه گونـه ای تخمین زده می شوند که معیار دقت شبکه مانند میانگین مربعـاتخطا حداقل گردد. این فرآیند توسط الگوریتم های بهینـه سـازیغیرخطی همچون پس انتشار خطا انجام می شود.

۴ – روش ترکیبی پیشنهادی
شبکه های عصبی پرسپترون چندلایه برخلاف روش های سـنتیپیش بینی همچون رگرسیون، دارای محدودیت تعداد متغیرهـایورودی هستند. در روش هایی همچون رگرسیون عملکرد مـدلبا تعداد متغیرهای ورودی توضیح دهنده رابطه مسـتقیم غیراکیـددارد، به عبارت دیگر با افزایش تعداد متغیرهای توضـیح دهنـده،عملکرد مدل کاهش پیدا نخواهد کرد. اما در شبکه های عصـبیچندلایه پیشخور همچون پرسپترون هـای چندلایـه ایـن مسـئلهبرقرار نمی باشد. لذا مسئله تعیـین تعـداد متغیرهـای ورودی بـهشبکه به مسئله ای مهم و تأثیرگذار در طراحی شبکه های عصبی تبدیل شده است. هر چند قانون تعریـف شـده ای بـرای تعـدادورودی های شبکه، در مسائل مختلف تعیین نشده است، امـ ا در حالت کلی تعداد ورودی های شبکه به ساختار شبکه، الگـوریتمآموزش، پیچیدگی مسـئله مـورد نظـر و اخـتلالات موجـود درداده ها وابسته می باشد [٧].
در ادبیات موضوع، راه حل معمول برای مسـئله فـوق الـذکر،انتخاب تأثیرگذارترین متغیرهای ورودی بر مقدار تابع هـدف وحذف سایر متغیرها است [۴]. حال درنظر نگرفتن این متغیرهـادر ساختار نهایی شـبکه و عـدم توانـایی تحلیـل نـوع و میـزانتأثیرگذاری آنها بر متغیر وابسته، مشکلی است که از محبوبیـتشبکه های پرسپترون چندلایه در پیش بینی کاسته است. در روش ترکیبی پیشنهادی به جای حذف متغیرهایی با تأثیرگذاری کمتـر، این گونه از متغیرها با سایر متغیرهای تأثیرگذار هـم دسـته خـودترکیب می گردند. با ترکیب ورودی ها با یکدیگر، دیگر نـه تنهـامشکل تعداد ورودی ها را نخواهیم داشت، بلکه توانایی تحلیـلنوع و میزان تأثیرگذاری هـر یـک از متغیرهـا را نیـز بـه دسـتخواهیم آورد.
روش ترکیبی پیشنهادی در حالت کلی شامل چهـار مرحلـهاساسی زیر می باشد:
– تشخیص متغیرهای تأثیرگذار
– خوشه بندی متغیرهای تأثیرگذار

  • 2