منبع پایان نامه درمورد شبکه های عصبی، شبیه سازی، پرسپترون چند لایه، شبکه عصبی

دانلود پایان نامه ارشد

بندی های متفاوت استفاده می نمایند .

شکل 12-3: تابع g در شبکه عصبی

تابع فعال سازی می تواند بر مبنای اینکه کدام تابع فعال سازی مورد استفاده قرار گرفته است برای بازگشت به یک خروجی هم بین 0 و 1 و هم بین 1- و 1 طراحی شود . ورودی و مقادیر وزنی می توانند هر مقداری بین ∞- و ∞+ به خود بگیرند، اما شیوه معمول آن است که آنها را کوچک و به مرکزیت صفر انتخاب شوند. تعدادی از توابع فعال سازی در اینجا تعریف شده اند. نمونه های از این توابع، تابع سیگموئید در معادله زیر (Nissen , 2003) و تابع خطی در شکل 3-12 می باشند:
g(x)= 1/(1+ e^(-2s(x+t)) )

بطوریکه t میزان انحراف مرکز فعال سازی از 0 و s یک پارامتر شیب ، (مربوط به شکل تابع) .

شکل 13-3 : تابع فعال سازی

شبکه های عصبی در لایه های مختلفی سازمان یافته اند ، بطوریکه هر لایه خروجی به عنوان لایه ورودی برای لایه بعدی مورد استفاده قرار می گیرد . هر لایه تمام اجزای مربوط به نرون ها ، وزن ها و توابع فعال سازی را در بر می گیرد . معروفترین نوع آرایش شبکه ، شبکه های عصبی چند لایه پیشخور هستند (شکل 3-12) (Nissen, 2003) . در این نوع آرایش ، نرون های مرتب شده در لایه ها ، با لایه ورودی شروع و با لایه خروجی پایان می یابند . بین این دو لایه تعدادی از لایه های پنهان وجود دارند ( یک لایه پنهان در شکل 13-3 نشان داده شده است ) . اتصالات در این شبکه ها تنها از یک لایه به لایه بعدی پیش می روند . چنانچه در شکل 13-3 دیده می شود، چهار متغییر ورودی در لایه اولیه وجود دارد . هر لایه در این شکل از چهار نرون ترکیب یافته است . تمام اتصال های بین لایه ها تماما وزن دار شده اند همانطور که توسط ماتریس وزن w_IH (شامل همه وزن های بین لایه های ورودی و پنهان) و w_HO (وزنهای بین لایه های پنهان و خروجی) نشان داده شده اند . این روش را می توان بصورت زیر خلاصه نمود (Nissen,2003) :
لایه ورودی تعدادی از متغییر های ورودی را دریافت می کند ( بعد از نرمالیزه شدن بیشترین زمان ).
استفاده از معادله بالا ماتریس وزن ها، ورودی تا رسیدن به لایه خروجی در میان لایه ها پخش شده است.
در لایه خروجی ، نتیجه توسط شبکه تولید شده است .

شکل 14-3 : وزن های بین لایه های پنهان و خروجی

پس از مطرح نمودن مفاهیم اولیه شبکه های عصبی ، یک توضیح مختصر از الگوریتم های شبکه های عصبی که در کار ما بکار برده خواهند شد ارایه می شوند . دو الگوریتم شبکه های عصبی عبارتند از : تابع پایه شعاعی و پیشخور31. شبکه های توابع پایه ای شعاعی بر بنیان های بسیار محکم از قوانین ریاضی استوار هستند . هدف از شبکه تابع پایه شعاعی تناسب یا برازندگی با بهترین تابعی است که رابطه بین مجموعه ای از داده ها x,y=f(x) را توصیف می نماید .تابع برازندگی نمایش داده شده توسط شبکه عصبی طراحی شده، می تواند سپس جهت درون یابی کردن مقدار y برای هر x در دامنه یا برای برون یابی یا تعمیم y پس از یادگیری روابط (x,y) مورد استفاده قرار گیرد . شکل 14-3 ساختار تابع پایه شعاعی را نشان می دهد. چنانچه در شکل14-3 دیده می شود یک بردار ورودی x (x_1,x_2 〖,x〗_3,x_4,x_5 ) هنگامی به شبکه عصبی وارد می شود که یک بردار وزنی w (w_1,w_2 〖,w〗_3,w_4,w_5) و بردار وزنی پایه b ( به ما این امکان را می دهد که مقدار t را از تابع فعال سازی خارج کنیم ) در شبکه شروع شده باشند .

شکل 15-3: ورود یک بردار x (x_1,x_2 〖,x〗_3,x_4,x_5 ) به شبکه عصبی

تولید نقطه ای بین بردار وزنی w و بردار ورودی x انجام شده است. خروجی تولید نقطه ای در وزن پایه b ضرب شده تا m (ورودی تابع پایه شعاعی ، m=(w.x)b) محاسبه شود . تابع فعال سازی برای یک نرون پایه شعاعی تعریف شده بر مبنای m، چناچه در شکل 14-3 و معادله زیر دیده می شود برای تولید خروجی o^, بکار رفته است :
o^,=e^(-m^2 )
خروجی o به لایه خطی خروجی که یک وزن lw و پایه b^, را دارد برای تولیدm^,=(lw.o^, 〖+b〗^,) انتقال خواهد یافت . سپسm^, محاسبه شده در تابع فعال سازی خطی فوق وارد شده که خروجی تقریبی o محاسبه و با مقدار واقعی آن مقایسه می شود. نتیجه این مقایسه برای به هنگام کردن وزن ها جهت دستیابی به حداقل خطا بین داده های شبیه سازی شده و داده های واقعی بکار برده می شود. به طور معمول حداقل خطا به عنوان یک معیار همگرایی جهت پایان فرایند یادگیری به کار برده می شود .
تئوری بالا مقدمه بر ساختار تابع پایه شعاعی را تشریح نمود . قدم بعدی ارائه مقدمات الگوریتم پیش خور است که برای آموزش در این پژوهش استفاده خواهد شد . شبکه پیش خور از سلسله مراتبی از واحد های پردازشگر ساخته شده است که در یک مجموعه متشکل از دو یا چند مجموعه منحصر به فرد از نرون ها یا لایه ها، سازماندهی شده اند (جورابیان ، 1388). چنانچه در یک شبکه ی عصبی، خروجی نرون تنها به نرون های لایه بعد وصل شود، به آن پیش خور می گویند. شبکه عصبی پیش خور کاملا متصل گویند، اگر هر سلول در هر لایه از همه ی نرون های لایه قبل، ورودی گرفته باشد. اما اگر بعضی از اتصالات سیناپسی حذف شده باشند، شبکه ی حاصل را متصل جزئی گویند بر این اساس تقسیم بندی های زیر برای ساختارهای مختلف شبکه های عصبی مصنوعی انجام شده است (سلطانی ، 1389) .
شبکه های پیش خور تک لایه : در این شبکه ها لایه میانی وجود ندارد . شبکه پیش خور تک لایه از یک لایه ورودی و یک لایه خروجی تشکیل شده است
شبکه های پیش خور چند لایه : این نوع شبکه ها ، با اضافه نمودن یک یا چند لایه ی پنهان به شبکه های پیش خور تک لایه بدست می آیند . شبکه های پیش خور چند لایه دارای توانای های بیشتری نسبت به شبکه های تک لایه هستند. به طوری که شبکه های عصبی پیش خور دو لایه با توابع سیگموئید در لایه اول قادرند هر تابعی را با دقت دلخواه تقریب بزنند (سلطانی ، 1389) .
در این الگوریتم، ورودی جهت محاسبه خروجی در شبکه انتشار یافته ، خطا محاسبه شده و در شبکه پس انتشار یافته در صورتیکه وزن ها در جهت دستیابی به حداقل خطا تعدیل می شوند . رویکرد الگوریتم پیش خور کاملا ساده است و می توان در عبارات زیر خلاصه نمود :
اولین ورودی در بین شبکه بصورتیکه قبلا توضیح داده شد انتشار می یابد و خروجی در هر نرون محاسبه شده ، خطای بین شبیه سازی و خروجی واقعی بدست می آید:
ε_i=T_i-o_i
بطوریکه ε_i خطا ؛ T_i و o_i خروجی های واقعی و شبیه سازی شده ، به ترتیب برای نرون i .
خطا برای محاسبه فاکتور تقویت، δ_i بکار رفته در تعدیل وزن ها مورد استفاده قرار می گیرد .
δ_i=ε_i g^’ (o_i)
بطوریکه g^’ مشتق تابع فعال سازی ( این حالت توضیح می دهد که چرا فعال سازی نیاز به پیوستگی و تشخیص پذیری دارد ) .
بکار بردن δ_j,δ_i برای لایه های قبلی را می توان همچون یک تابع δ_i از رابطه زیر محاسبه نمود ؛
δ_j=ηg^’ (o_i)∑δ_i w_ji
بطوریکه I تعداد نرون ها در این لایه و η پارامتر نرخ یادگیری است، که تشخیص می دهد چه تعداد از وزن باید تعدیل شود. به عبارت دیگر، δ_j بر مبنای δ_i وزن دارشده داخل شده از کلیه اتصال ها، مطابق با نرخ یادگیری تعدیل یافته، محاسبه می شود .
بکار گیری چنین مقادیری δ ، مقادیر w∆ که وزن ها باید توسط آن تعدیل شوند، را می توان به صورت زیر محاسبه نمود :
∆_(w_ji )=δ_j O_i
مقدار ∆_(w_ij )برای تعدیل وزن w_ij ،توسط w_ji=w_ji+∆_(w_ji ) بکار برده می شود و الگوریتم پس انتشار برای ورودی بعدی ادامه پیدا می کند و وزن ها را مطابق با خروجی تعدیل می نماید . این فرایند تا زمانی ادامه پیدا می کند که یک معیار یا سنجه ی توقف اعلام شود . معیار توقف عموما توسط سنجش میانگین خطای مربع داده آموزشی در هنگام آموزش داده تعیین می شود . زمانی که این میانگین خطا ی مربع به یک حد معین برسد ، آموزش متوقف می شود .

3-3-4-شبیه سازی های عصبی
در شبکه های عصبی، پردازش داده ها بر اساس فرآیندی ساده صورت می گیرد ولی برای انجام شبیه سازی، باید مراحل متعددی را به صورت دقیق طی نمود. در این جا، تعیین فرمولاسیون مسئله، جمع آوری اطلاعات و وارد نمودن آنها به شبکه، آنالیز حساسیت در شبکه، توپولوژی شبکه و نحوه ی انجام شبیه سازی را باید به دقت تنظیم نمود تا جواب مورد نظر را به دست آورده شود. در این بخش به این مفاهیم پرداخته خواهد شد .

3-3-5-مؤلفه های دخیل در یک شبیه سازی عصبی
شبیه سازی در شبکه های عصبی دارای مراحل اصلی زیر است:

3-3-5-1-فرمولاسیون مسئله
بسیار مهم است که شبکه را متناسب با مسئله ی مورد نظر طراحی شود. برای آغاز شبیه سازی با شبکه های عصبی، باید مسئله ی مورد نظر را به خوبی بشناسیم. به این منظور، باید در مورد پارامترهایی که در مسئله دخیلند و حد و مرزهای آنها اطلاع کافی داشته باشیم. انواع مختلفی از شبکه های عصبی وجود دارند که هر کدام برای نوعی خاص از مسائل بهتر عمل می کنند. آشنایی با انواع این شبکه ها و همچنین شناخت دقیق از
مسئله ی مورد نظر بسیار مهم است. علاوه بر آن باید قابلیت های یک شبکه ی نظارت نشده به خوبی بررسی شود. جدول3-1 انواع شبکه های دیده می شود .

جدول 3-1 : مدل های مختلف شبکه عصبی
کاربرد ها یا مزایا
توضیحات
مدل
گریستن عمومی یا طبقه بندی
پرکار برد ترین شبکه عصبی
Multilayer
Perceptron(MLP)
قدرت محاسبه ی بیشتر از پرسپترون چند لایه استاندارد
پرسپترون چند لایه بعلاوه اتصالات لایه به لایه رو به جلوی اضافی
Generalized
Feed forward
نسبت به پرسپترون چند لایه استاندارد تعداد وزن های کمتری در میان لایه ها دارد
چندین پرسپترون چند لایه که در خروجی با هم ترکیب شده اند
Modular Feed forward
آموزش سریع، بیان ساده ی مراکز و پهنایGaussian
ترکیب خطی آکسون هایGaussian
Radial Basis
Function(RBF)
اضافه شدن حافظه ای ثابت به پرسپترون چند لایه برای مسائل ساده ی موقتی
پرسپترون چند لایه با پسخور غیر سازگار برگشتی
Gordan and Elman
با حفظ مجاورت ها، داده هایی با ابعاد زیاد را درون ابعاد کوچک طرح ریزی می کند
PCA نظارت نشده در ورودی به دنبال پرسپترون چند لایه نظارت شده
Principal Component
Analysis(PAC)
hybrids
با حفظ مجاورت ها، داده هایی با ابعاد زیاد را درون ابعاد کوچک طرح ریزی می کند
SOFM نظارت نشده در ورودی به دنبال پرسپترون چند لایه نظارت شده
Self-Organizing
Feature Map(SOFM)
hybrid
کاربرد در مسائل موقتی. ثبات تضمین شده، توضیح ساده ی وزن های برگشتی بر حسب داده ها
لایه(های) برگشتی موضعی با یک وزن سازگار شونده منفرد
AimeLagged
Recurrent
برای مسائل موقتی مشکل تر. قدرتمند ترین شبکه های عصبی و در عین حال مشکل ترین آنها از نظر آموزش شبکه اغلب بی ثباتند
شبکه های برگشتی کامل یا جزئی
General Recurrent
برای مسائلی که خوب تعریف نشده اند. پیش پردازش فازی با شناسایی وزن هایی که به آسانی تفکیک نمی شوند، وظیفه شبکه را آسان تر می کنند و منجر به نتایج بهتری می شوند.
تابع عضویت سازگار فازی در ورودی
CANFIS
به سختی برای مسائل طبقه بندی با اندازه ی کوچک تا متوسط به کار می روند.SVM به ویژه برای جدا کردن مرزهایی که دارای حدود مشترک هستند، کارا است
آموزش یافته با الگوریتم کرنل آداترون
Support vector
Machine
منبع : نگارنده

3-3-5-2-جمع آوری اطلاعات و وارد نمودن آنها به شبکه
باید مطمئن شد که داده های ما، تمام شرایطی را که ممکن است شبکه با آنها رو به رو شود را در بر می گیرند. نه تنها جمع آوری مقدار زیادی اطلاعات، بلکه نحوه ی ارائه آنها به شبکه نیز بسیار مهم است. بدین معنی که باید داده ها به شکل های مناسب در آورده شوند. جانشینی برای آماده کردن خوب داده ها وجود ندارند.
همچنین باید رابطه ی مطلوب خروجی و ورودی و هدف از انجام، شبکه های عصبی را دقیقاً مشخص شوند. به ویژه، می بایستی رابطه ی مطلوب ورودی- خروجی معلوم شود. مرحله ی بعد وارد نمودن داده ها به شبکه است. فایل های داده های

پایان نامه
Previous Entries منبع پایان نامه درمورد شبکه های عصبی، شبکه های عصبی مصنوعی، شبکه عصبی، پردازش اطلاعات Next Entries منبع پایان نامه درمورد اعتبار سنجی، شبکه های عصبی، شبیه سازی، پرسپترون چند لایه