منبع پایان نامه درمورد داده های ورودی، شبکه های عصبی، پرسپترون چند لایه، شبکه های عصبی مصنوعی

دانلود پایان نامه ارشد

واقعی و مطلوب دسترسی دارد(منهاج ، 1389). در الگوریتم یادگیری نظارت شده، مجموعه ای از زوج های داده ها به داده های یاد گیری موسوم هستند. پس از اعمال ورودی X به شبکه ی عصبی، خروجی حاصل از شبکه ی y با مقدار ایده آل مقایسه شده و خطا برای تنظیم پارامترهای از شبکه نظیرw محاسبه می شود. اگر بار دیگر همان ورودیx به شبکه اعمال شود، خروجی شبکه به y همگرا می شود. در این شیوه ی آموزش، ورودی های شبکه و خروجی های متناظر با آن ها از قبل معلوم می باشند. در حین آموزش، ورودی به شبکه ی عصبی اعمال می شود و شبکه در پاسخ به آن ورودی، پاسخ خروجی را نتیجه می دهد. این خروجی با خروجی مطلوب که اصطلاحاً خروجی هدف گفته می شود مقایسه می گردد. حال اگر خروجی واقعی با خروجی مطلوب مغایرت داشته باشد، شبکه یک سیگنال خطا 46تولید می کند که این سیگنال خطا برای محاسبه ی میزان تغییری که باید بر وزن های سیناپسی اعمال شود، استفاده می گردد. به عبارت دیگر، خطا را کاهش می دهیم و در صورت امکان آن را به صفر می رسانیم. این روند حداقل نمودن خطا به یک مدار ویژه به نام معلم47 یا ناظر48 نیاز دارد که عمل مقایسه ی بین خروجی واقعی و خروجی مطلوب را انجام دهد، و شبکه را باید با توجه به این سیگنال خطا تعدیل شود تا اینکه آموزش لازم را ببیند، به همین دلیل به این شیوه ی آموزش، آموزش با ناظر گفته می شود.
در شبکه های عصبی مصنوعی، میزان محاسبات لازم برای حداقل نمودن خطا، به شیوه ی آموزش یا اصطلاحاً الگوریتم آموزش49 به کار رفته بستگی دارد. این الگوریتم روشی کاملاً ریاضی و مستقل از تکنیک های بهینه سازی است.

3-3-8-1-2-الگوریتم های یادگیری نظارت نشده یا بدون ناظر
آموزش نظارت نشده بر اساس اجبارها و محدودیتهای داخلی است. در یادگیری بدون ناظر جواب مطلوب برای سیستم یادگیرنده موجود نیست(منهاج ،1389). بدین ترتیب در طول آموزش از هیچ پیام مطلوبی استفاده نمی شود.این مطلب را، نباید با عدم ارائه ی پاسخ مطلوب توسط شبکه اشتباه گرفت. نوع پاسخ شبکه به داده های ورودی در روش آموزش نهفته است. آموزش نظارت نشده تنها در صورتی نتیجه ی چشمگیری به بار می آورد که در داده های ورودی، نوعی فزونی و فراوانی وجود داشته باشد. بدون این فزونی در داده های ورودی، غیر ممکن است که هیچ نوع الگویی را در داده های ورودی کشف نمود. شبکه های نظارت نشده با کاوش در این فراوانی، داده ها را استخراج می کنند. در این مورد دانش و اطلاعات کاملاً مخالف یکدیگر عمل می کنند. می توان اطلاعات را توسط یک پیام مبنی بر فقدان فزونی، اندازه گیری نمود. معمولاً آموزش نظارت نشده را برای یک لایه منفرد از ارتباطات وزن دار به کار می برند. در اکثر نرم افزارها، این لایه مترادف است با خانواده ای سیناپسی. بر خلاف شبکه های نظارت شده، آموزش نظارت نشده نیازی به تنظیم کنترل های مختلف ندارد. مؤلفه های مختلف کنترلی شبکه، خودشان را به درون جریان داده های مربوط به هر نمونه تحمیل می کنند. می توان آموزش نظارت نشده را به همراه آموزش نظارت شده در یک شبکه منفرد به کار برد. همه ی مؤلفه های نظارت نشده را می توان از طریق تابع احیای وزنی زیر تعریف نمود:
∆wij(t)= f (x,y,η)
که در آن n اندازه مرحله است. در یادگیری بدون ناظر یا خود سازمانده، بردار جواب مطلوب به شبکه اعمال نمی شود. در واقع هنگامی که تعداد لایه ها و نرون ها افزایش می یابد، کار یادگیری در الگوریتم های با ناظر بسیار کند است پیش می رود و این ایراد اساسی این دسته از الگوریتم هاست. در الگوریتم های بدون ناظر جواب به دست آمده در حافظه ی بلند مدت ذخیره شده و از همان ابتدا ورودی ها دسته بندی می شوند. با استفاده از حافظه ی مشارکتی بین ورودی ها ارتباط برقرار می شود. یک نوع الگوریتم خود سازمان ده که توسط کوهنن ابداع شده به صورت ذیل است:
الف- ابتدا نرون برنده I تعیین می شود.
ب- سپس بردارهای وزنی همه ی نرون هایی که در یک همسایگی خاص از نرون برنده قرار دارند، طبق فرمول تنظیم می شوند.
ج- پس از اعمال ورودی X، بردارهای وزن نرون برنده و تمامی نرون های هم جوار(به شعاعd) به سمت بردار ورودیX حرکت خواهند کرد.
د- پس از تعداد زیادی تکرار و ارائه ی ورودی های مختلف به شبکه، نرون های همجوار بردارهایی را که شبیه به هم هستند را خواهند آموخت.
در این روش بر خلاف شیوه ی آموزش با نظارت نیاز به معلم نیست، یعنی خروجی هدف وجود ندارد. در خلال آموزش، شبکه الگوهای آموزشی خود را از طریق ورودی هایش دریافت می کند و به شکل دلخواه آن ها را تحت طبقه بندی های مختلفی دسته بندی می کند(سلطانی و دیگران، 1389).

3-3-8-1-3-الگوریتم پس انتشار خطا
عمده ترین کاربرد قانون یادگیری پس انتشار، در آموزش شبکه های عصبی چند لایه ی پیش خور است که عموماً شبکه های چند لایه ی پرسپترون هم نامیده می شوند. روش پس خور یک روش سیستماتیک برای آموزش شبکه های چند لایه است. الگوریتم یادگیری پس انتشار بر قانون یادگیری اصلاح خطا مبتنی می باشد. به عبارتی توپولوژی شبکه های چند لایه ی پرسپترون با قانون یادگیری پس انتشار تکمیل می گردد. این قانون از دو مسیر اصلی تشکیل شده است. مسیر اول موسوم به مسیر رفت می باشد. در این مسیر، بردار ورودی به شبکه اعمال شده و تاثیرات از طریق لایه های میانی، به لایه ی خروجی انتشار می یابد. بردار خروجی ایجاد شده در لایه ی خروجی، پاسخ واقعی شبکه می باشد. در این مسیر، پارامترهای شبکه ثابت و بدون تغییر در نظر گرفته می شوند.
مسیر دوم موسوم به مسیر برگشت می باشد. در این مسیر، برعکس مسیر رفت، پارامترهای شبکه تغییر پیدا کرده و تنظیم می شوند. این تنظیم مطابق با قانون اصلاح خطا صورت می گیرد. سیگنال خطا در لایه ی خروجی شبکه تشکیل می شود. بردار خطا برابر است با اختلاف بین پاسخ مطلوب و پاسخ واقعی شبکه. مقدار خطا پس از محاسبه، در مسیر برگشت از لایه ی خروجی و از طریق لایه های میانی شبکه در کل شبکه توزیع می گردد، و چون این توزیع در خلاف مسیر ارتباطات وزنی سیناپس ها صورت می گیرد، کلمه پس از انتشار خطا جهت توضیح رفتار الگوریتم انتخاب شده است. پارامترهای شبکه، طوری تنظیم می شوند که پاسخ واقعی شبکه هر چه بیشتر به پاسخ مطلوب نزدیک شود. استفاده از خروجی های واقعی در این نوع از شبکه ها، سبب قرار گرفتن این شبکه ها در گروه آموزش نظارت شده است.
دو الگوریتم مومنتم و مرکوات لونبرگ از الگوریتم های پس انتشار خطا می باشند که برای مدل های پرسپترون چند لایه کاربرد دارند. در الگوریتم پس انتشار خطای مومنتم، به دلیل اینکه برای رسیدن به نقطه ی حداقل خطا از روش کاهش گرادیان استفاده می شود، احتمال در دام افتادن شبکه در یک نقطه ی حداقل محلی زیاد می شود، بدین دلیل الگوریتم جدید تر گرادیان مزدوج و لورنبرگ استفاده می شود. این دو الگوریتم که جزء روش های مرتبه ی دوم محسوب می شوند، بر پایه روش نیوتن بنا نهاده شده اند، و بر خلاف الگوریتم مومنتم که از شیب سطح عملکرد استفاده می کند، از سرعت شیب سطح عملکرد برای رسیدن به جواب بهینه استفاده می کنند و در ساختار خود به گونه ای عمل می کنند که احتمال در دام افتادن آن ها به حداقل می رسد.
ساختار پرسپترون چند لایه به توابع غیر خطی نیاز دارد که به طور پیوسته مشتق پذیر باشد. به عبارت دیگر هموار باشند. توابع زیادی هستند که در انتقال اعداد از لایه ی قبل به لایه ی بعد مورد استفاده قرار می گیرند. از جمله می توان توابع سیگموئید، گوسین50، تانژات هیپربولیک و سکانت هیپربولیک51 را نام برد، ولی تابع سیگموئید بیش ترین کاربرد را در مسائل مهندسی دارد، که در این پژوهش نیز از این تابع استفاده شده است. که یکی از دلائل عمده ی استفاده از آن سادگی مشتق آن است که استفاده از روش پس انتشار خطا را بسیار ساده می کند.

3-4-سیستم های فازی

بنياد منطق فازي بر شالوده نظريه مجموعه‌هاي فازي استوار است که در فصل قبل اشاره شد. اين نظريه تعميمي از نظريه كلاسيك مجموعه‌ها در علم رياضيات است. در تئوري كلاسيك مجموعه‌ها، يك عنصر، يا عضو مجموعه است يا نيست. در حقيقت عضويت عناصر از يك الگوي صفر و يك و باينري تبعيت مي‌كند. اما تئوري مجموعه‌هاي فازي اين مفهوم را بسط مي‌دهد و عضويت درجه‌بندي شده را مطرح مي‌كند. به اين ترتيب كه يك عنصر مي‌تواند تا درجاتي – و نه كاملا” – عضو يك مجموعه باشد. مثلا” اين جمله كه «خانم الف به اندازه هفتاددرصد عضو جامعه بزرگسالان است» از ديد تئوري مجموعه‌هاي فازي صحيح است. در اين تئوري، عضويت اعضاي مجموعه از طريق تابع f(x) مشخص مي‌شود كه x نمايانگر يك عضو مشخص و f تابعي فازي است كه درجه عضويت ‌x در مجموعه مربوطه را تعيين مي‌كند و مقدار آن بين صفر و يك است(جباری ، 1387).
به بيان ديگر، f(x) نگاشتي از مقادير x به مقادير عددي ممكن بين صفر و يك را مي‌سازد. تابعf(x) ممكن است مجموعه‌اي از مقادير گسسته (discrete) يا پيوسته باشد. وقتي كهf فقط تعدادي از مقادير گسسته بين صفر و يك را تشكيل مي‌دهد، مثلاً ممكن است شامل اعداد 3/0 و 5/0 و 7/0 و 9/0 و صفر و يك باشد. اما وقتي مجموعه مقاديرf پيوسته باشند، يك منحني پيوسته از اعداد حقيقي بين صفر و يك تشكيل مي‌شود.
سيستم فازي يك سيستم غير خطي است كه مي تواند چند ورودي و چند خروجي داشته باشد. در ضمن اگر بخواهيم اين سيستم چند خروجي داشته باشد مي توانيم از چند پردازشگر موازي فازي هم استفاده كنيم. در مقايسه با شبكه هاي عصبي سيستم هاي فازي مي توانند بر اساس قواعد كار كنند ولي شبكه هاي عصبي به صورت جعبه سياهي عمل مي كنند كه پروسه داخلي آنها كاملاً بر كاربر مشخص نيست. همچنين منطق فازي مقوله اي كاملاً متفاوت از تئوري احتمالات مي باشد. هرچند كه هنوز هم بعضي از رياضيدانان معتقدند كه منطق فازي چيزي نيست جز يك برداشت نادرست از نظريه احتمالات كه به گونه‌اي غيرقابل قبول، مقادير و اندازه‌گيري‌هاي نادقيق را وارد علوم رياضيات، مهندسي و كنترل كرده است(جباری ،1387). توضيح تفاوت ميان اين دو نظريه كار چندان دشواري نيست. منطق فازي با حقايق نادقيق سروكار دارد و به حدود و درجات يك واقعيت اشاره دارد؛ حال آن‌كه نظريه احتمالات بر شالوده مجموعه حالات تصادفيِ يك پديده استوار است و درباره شانس وقوع يك حالت خاص صحبت مي‌كند؛ حالتي كه وقتي اتفاق بيفتد، دقيق فرض مي‌شود.

3-5-چرا از منطق فازي استفاده مي كنيم؟

قوانين فازي را مي توان بر اساس تجربيات افراد خبره تعيين كرد.
در مقايسه با استفاده از شبكه هاي عصبي كه در آنها داده هاي آموزشي مدل هاي مخفي نا واضحي را مي سازند منطق فازي اجازه مي دهد كه در اين زمينه از دانش افراد خبره اي كه قبلاً رد مورد سيستم تجربه دارند استفاده نمود.
تئوري منطق فازي مانند زبان طبيعي ماست.
زباني كه براي ساخت قوانين فازي به كار مي رود بسيار ساده است و از طريق منطق فازي به راحتي به فرم رياضي تبديل مي شود.
منطق فازي انعطاف پذير است.
اين سيستم مي تواند براي بسياري از كاربرد ها و شرايط به كار رود.
درك منطق فازي ساده است.
مفاهيم رباضي پشت منطق فازي مانند كمينه، بيشينه و .. بسيار ساده هستند. اين مفاهيم در بطن خود طبيعي بودن را دارند.

3-6-عناصر سيستم فازي

يك سيستم فازي از چندين عنصر ساخته شده است كه در اين بخش به آنها مي پردازيم.
قالب كلي سيستم فازي به شكل 15-3 است.

شكل 16-3 : ساختار يك سيستم فازي

3-6-1-مجموعه هاي فازي
ساده ترين جز سيستم فازي مجموعه هاي فازي است. مجموعه های کلاسیک حاوی عضو هایی هستند که عضویت هر کدام از آنها قطعیت دارد و مرز ها در آنها کاملاً مشخص می باشد. ولی همان طور كه در بخش قبل توضيح داده شد عضويت در مجموعه هاي فازي به صورت صفر و يك نيست بلكه با عددي بين صفر تا يك بيان مي شود. این مجموعه های فازی برای تبدیل متغیر های عددی فضای crisp به فضای متغیر های لغوی به کار می رود. در مورد تابع عضویت f(x) می توان گفت:

شكل( 16-3

پایان نامه
Previous Entries منبع پایان نامه درمورد داده های ورودی، شبکه های عصبی، فرایند آموزش، شبکه های عصبی مصنوعی Next Entries منبع پایان نامه درمورد مجموعه های فازی، داده های ورودی