دانلود تحقیق با موضوع شبکه عصبی، شبکه‌های عصبی مصنوعی، شبکه های عصبی، پردازش تصویر

دانلود پایان نامه ارشد

شامل ورودی به شبکه و خروجی هدف است. پس از اعمال ورودی به شبکه، خروجی شبکه با خروجی هدف مقايسه می گردد و سپس خطای يادگيری محاسبه شده و از آن جهت تنظيم پارامترهای شبکه(وزن ها)، استفاده می گردد به گونه ای که اگر دفعه بعد به شبکه همان ورودی را داديم، خروجی شبکه به خروجی هدف نزديک گردد.
يادگيري نظارت نشده يا بدون ناظر:
در اين نوع يادگيری هيچ سيگنالی که اطلاعات را در مورد مطلوبيت جواب شبکه به خود شبکه وارد نمايد، وجود ندارد. به عبارت ديگر به شبکه گفته نمی شود که خروجی هدف چه است و يا اينکه جواب شبکه چقدر مطلوب است. در اين حالت، شبکه با دريافت اطلاعات ورودی، بايد طبقه بندی ای بين الگوهای ورودی، شاخص های موجود در ورودی ها و ارتباط موجود بين الگوهای ورودی را پيدا کند و در خروجی کد کند. يک مثال بسيار متداول از اين نوع يادگيری، شبکه های خوشه بندی الگوهای ورودی است، بدون اينکه بدانيم کدام الگو به کدام خوشه تعلق دارد. خوشه ها در نهايت از روی تشابهات و عدم تشابهات بين الگوها ايجاد می گردند (اولاتونگ، 2013).11
يادگيری شبکه پرسپترون سه لايه با رويکرد انتشار به عقب خطا:
شبکه های پرسپترون، علی الخصوص چند لايه، در زمره کاربردی ترين شبکه های عصبی می باشند. اين شبکه قادر است يک نگاشت غير خطی را با دقت دلخواه انجام دهد و اين همان چيزی است که در مسائل فنی– مهندسی به عنوان يک راه حل اصلی مطرح می باشد. اين شبکه نماينده ی شبکه های پيش خور است و خروجی مستقيماً از روی ورودی بدون هيچ فيدبکی محاسبه می گردد .
2-11: انواع یادگیری برای شبکه های عصبی
2-11-1: یادگیری با ناظر
در یادگیری با ناظر به قانون یادگیری مجموعه ای از زوج های داده ها به نام داده های یادگیری {Pi,Ti)i={1 … l) می دهند که در آن Pi ورودی به شبکه و Ti خروجی مطلوب شبکه برای ورودی Pi است. پس از اعمال ورودی Pi به شبکه عصبی در خروجی شبکه ai با Ti مقایسه شده و سپس خطای یادگیری محاسبه و از آن در جهت تنظیم پارامترهای شبکه استفاده می شود به گونه ای که اگر دفعه بعد به شبکه همان ورودی Pi اعمال شود خروجی شبکه به Ti نزدیکتر می گردد با توجه به این نکته که معلم سیستمی است که بر محیط وقوف دارد(مثلا می داند که برای ورودی Pi خروجی مطلوب Ti است). توجه داریم که محیط برای شبکه عصبی مجهول است. در لحظه k بردار ورودی (k)Pi با تابع توضیع احتمال معینی که برای شبکه عصبی نا معلوم است انتخاب و بطور همزمان به شبکه عصبی و معلم اعمال می شود. جواب مطلوب Ti(k) نیز توسط معلم به شبکه عصبی داده می شود. در حقیقت پاسخ مطلوب پاسخ بهینه ای است که شبکه عصبی برای ورودی مفروض باید به آن برسد. پارامترهای شبکه عصبی توسط دو سیگنال ورودی و خطا تنظیم می شود. به این صورت که پس از چند تکرار الگوریتم یادگیری که عموما توسط معادله تفاضلی بیان می شود به پارامترهایی در فضای پارامترهای شبکه همگرا می شوند که برای آنها خطای یادگیری بسیار کوچک است و عملا شبکه عصبی شبکه عصبی معادل معلم می شود. یا به عبارتی دیگر اطلاعات مربوط به محیط (نگاشت بین TiوPi) که برای معلم روشن است به شبکه عصبی منتقل می شود و پس از این مرحله عملا می توان بجای معلم از شبکه عصبی استفاده کرد تا یادگیری تکمیل شود(چائوهان و همکاران،2014 ) 12.
2-11-2: یادگیری تشدیدی
یک اشکال یادگیری با ناظر این است که شبکه عصبی ممکن است بدون معلم نتواند مواضع جدیدی را که توسط مجموعه داده های جدید تجربی پوشانده نشده است یاد بگیرد. یادگیری از نوع تشدیدی این محدودیت را برطرف می کند. این نوع یادگیری بطور on-line صورت می گیرد در حالی که یادگیری با ناظر را به دو صورت on-line & off-line می توان انجام داد. در حالت off-line می توان از یک سیستم محاسب با در اختیار داشتن داده های یادگیری استفاده کرد و طراحی شبکه عصبی را به پایان رساند. پس از مرحله طراحی و یادگیری شبکه عصبی به عنوان یک سیستم استاتیکی عمل می کند. اما در یادگیری on-line شبکه عصبی همراه با خود سیستم یادگیر در حال انجام کار است و از این رو مثل یک سیستم دینامیکی عمل می کند.
یادگیری از نوع تشدیدی یک یادگیری on-line از یک نگاشت ورودی-خروجی است. این کار از طریق یک پروسه سعی و خطا به صورتی انجام می پذیرد که یک شاخص اجرایی موسوم به سیگنال تشدید ماکزیمم شود و بنابراین الگوریتم نوعی از یادگیری با ناظر است که در آن به جای فراهم نمودن جواب واقعی ، به شبکه عددی که نشانگر میزان عملکرد شبکه است ارائه می شود. این بدین معنی است که اگر شبکه عصبی پارامترهایش را به گونه ای تغییر داد که منجر به یک حالت مساعد شد آنگاه تمایل سیستم یادگیر جهت تولید آن عمل خاص تقویت یا تشدید می شود. در غیر این صورت تمایل شبکه عصبی جهت تولید آن عمل خاص تضعیف می شود. یادگیری تقویتی مثل یادگیری با ناظر نیست و این الگوریتم بیشتر برای سیستمهای کنترلی کاربرد دارد (همان، 2014).
2-11-3: یادگیری بدون ناظر
در یادگیری بدون ناظر یا یادگیری خود سامانده پارامترهای شبکه عصبی تنها توسط پاسخ سیستم اصلاح و تنظیم می شوند. به عبارتی تنها اطلاعات دریافتی از محیط به شبکه را بردارهای ورودی تشکیل می دهند. و در مقایسه با مورد بالا (یادگیری با ناظر) بردار جواب مطلوب به شبکه اعمال نمی شود. به عبارتی به شبکه عصبی هیچ نمونه ای از تابعی که قرار است بیاموزد داده نمی شود. در عمل می بینیم که یادگیری با ناظر در مورد شبکه هایی که از تعداد زیادی لایه های نرونی تشکیل شده باشند بسیار کند عمل می کند و در این گونه موارد تلفیق یادگیری با ناظر و بدون ناظر پیشنهاد می گردد(همان، 2014).
2-12: زمینه‌ای در مورد پرسپترون
یک خانواده ساده از شبکه‌های عصبی مدل پرسپترون می‌باشد. در یک دسته‌بندی تک‌خروجی، تعداد n ورودی و یک خروجی دارد . با هر ورودی یک ضریب وزنی Wi و با هر خروجی یک مقدار آستانه q مرتبط است.
پرسپترون به گونه زیر عمل می‌کند:
ورودی‌های پرسپترون یک بردار ورودی از n مقدار حقیقی است.
پرسپترون مجموع وزنها را محاسبه می‌کند a= Wi.Xi. این مقدار با مقدار آستانه q مقایسه می‌شود. اگر این مقدار از مقدار آستانه کوچکتر باشد خروجی 0 است و در غیر این صورت 1 است.
2-12-1: قدرت پرسپترون
به وسیله تنظیم اعداد ورودی، وزن آنها و مقدار آستانه می‌توان یک پرسپترون برای انجام نسبتا خوب محاسبات گوناگون طراحی کرد. برای مثال توابع منطقی بولین مانند AND ، OR و NOT را می‌توان به وسیله پرسپترون طراحی کرد و هر مدار منطقی دیگر را به وسیله گیتهای AND و NOT یا AND و OR طراحی کرد. دسته‌های زیادی از پرسپترون ها ممکن است خروجی‌های دسته‌های دیگر را به عنوان ورودی خود درخواست کنند.
به عنوان مثالی پرسپترون ها می‌توان یک تشخیص دهنده قالب متن را نام برد. حرف A درآرایه‌ای 5*5 به‌رمز در می‌آید کدگذاری می‌شود. این متن(حرف) به ‌وسیله یک پرسپترون با 25 ورودی تشخیص داده می‌شود که در آن وزنها مقادیری برابر با مقادیر عددی داخل آرایه را می‌گیرند و مقدار آســتانه برابر است با: e-25 =q که در آن 1 e 0.
خروجی پرسپترون 1 است اگر و فقط اگر ورودی آن از 1 و 1- هایی باشد که عینا در آرایه آمده است.
2-12-2: دنباله‌های پرسپترون
یکی از خصوصیات جالب پرسپترون این است که آنها می‌توانند به وسیله مثالهای مثبت و منفی (صحیح و اشتباه) برای انجام توابع دسته‌بندی شده مخصوص بارها مرتب شوند.
حال به یک مثال ساده از پرسپترون با دو ورودی X1و X2، که تشخیص می‌دهد که کدام ‌یک از دو کلاس، عناصر متعلق به خودش را دارد. ما فرض می‌کنیم که این پرسپترون دو طرح از کارکترهای چاپ شده از یک متن را بررسی کند، خروجی 1 است اگر و فقط اگر کاراکتر رقم 8 باشد. فرض کنیم که X1 بیانگر تعداد حفره‌های کاراکتر است و X2درجه راستی سمت چپ کاراکتر را نشان می‌دهد. ما با 4 ورودی .
اگر ما پرسپترون را در اول کار با وزنهایی برابر 0 و مقدار آستانه را برابر 10 مقداردهی کنیم یک رده‌بندی از همه مثالهای منفی انجام داده‌ایم. با قرار دادن رده‌بندی‌های نادرست از 8 ، مقادیر ورودی از مثال 8 با بعضی فاکتورها مثل d جمع می‌شوند و تولیدات جدید با وزنهای متناظر با ایجاد می‌شوند.
فرض کنیم 1=d پس وزن ورودی‌ها از 0 به 1 و 2 رشد پیدا می‌کند. حال در اینجا 5 = a به دست می‌آید که هنوز از مقدار آستانه 10 کوچکتر است. مثال هنوز به رده‌بندی صحیحی نرسیده است واین قدم دنباله باید تکرار شود. بعد از دو قدم وزنها برابر 2 و 4 می‌شوند که مقدار 10 = a را نتیجه می‌دهد که برابر مقدار آستانه است و مثال مثبت از 8 به طور صحیح دسته‌بندی شده است. از آنجا که ضرایب وزنی تغییر کرده بودند لازم است که در همه مثالها رده‌بندی‌ها بازنشان (Reset) شوند. این را می‌توان به سادگی دید که مثال B رده‌بندی نادرستی است زیرا با وزنهای 2 و 4 داریم 24 = a ولی این حرف مورد نظر ما نیست، چون این مرحله را پیش رفته‌ایم لازم است که d.1 از w1 و d.2 از w2 کم شود تا رده‌بندی نادرستی از B ثابت شود. به هر حال یک رده‌بندی از 8 را دوباره بیرون می‌دهد.
بعدها موقع بروز خطا ما وزنها را برای درست کردن خطاهای رده‌بندی اصلاح می‌کنیم. اگر مثالها دارای خاصیت صحیحی باشند وزنها در مجموعه‌ای از مقادیری که به درستی روی هر ورودی کار می‌کنند قرار می‌گیرند.
2-12-3: قضیه بنیادی دنباله‌ها
یک خصوصیت قابل توجه پرسپترون این است که آنها می‌توانند دنباله‌ای از رده‌بندی صحیح مثالهای مثبت ومنفی باشند.
فرض کنیم X = X+ X-:
مجموعه‌‌ای از مثالهای مثبت X+
مجموعه‌‌ای از مثالهای منفی X-
گوییم که رشته بی‌کران Sx = X1 X2 , …, Xk یک رشته متوالی(ترتیبی) برای X است در صورتی که هر Xi یک مثال در X است و هر عنصر از X اغلب به طور نامحدود در Sx رخ می‌دهد(نمایان می‌شود).
فرض کنیم wk ضریب وزنی در سطح k دنباله باشد. وزن اولیه می‌تواند به صورت قراردادی باشد (برای مثال w1=0. (حال رشته استاندارد حاصله، وزنها را به صورت زیر ارتقا می‌دهد: بسته به استرادژی مورد نظر ممکن است مقادیر Ck همگی یکسان باشند یا ممکن است با k تغییر کنند.
قضیه 1 باشد و یک بردار حل وزنها برای X وجود داشته باشد, در این صورت رویه رشته استاندارد باید بعد از یک تعداد فرض کنیم یک مجموعه از رشته نمونه X و هر رشته ترتیبی برای آن داریم, اگر Ck یک ثابت مثبت مراحل مشخص یک راه‌حل پیدا کند به طوری که اگر برای بعضی K0 ها داشته باشیم:
WK0 = WK0+1 = WK0+2 = …

که WK0 یک راه‌حل برای X است. بنابراین ما می‌توانیم با استفاده از شبکه‌های عصبی هر چه بیشتر به شبیه‌سازی انسان توسط کامپیوترها نزدیک شویم به منظور واگذاری کارهای تکراری, وقت‌گیر و مسائلی که با توجه به پیشرفت بشری دیگر درخور بشر نیست.
2-13: کاربردهای شبکه‌های عصبی مصنوعی ANN
می‌توان موارد زیر را از کاربردهای شبکه‌های عصبی مصنوعی ذکر کرد: (زارع و کوردلویی، 1389)
پردازش تصویر و دید(Image processing and computer vision)
پردازش علائم (Signal processing): شامل ریخت‌شناسی و تجزیه و تحلیل علائم مربوط به زمین‌لرزه‌ها و…
شناسایی الگوها(Pattern recognition): شامل شناسایی چهره، اثر انگشت، تشخیص نوع صدا و نوع صحبت کردن، دستخط و …
پزشکی (Medicine): شامل تجزیه و تحلیل و تشخیص علائم دستگاه ضربان‌نگار قلب (الکتروکاردیوگرافیک)، تشخیص امراض گوناگون و …
سیستم‌های نظامی (Military systems): شامل ردیابی مین‌های زیردریایی، دسته‌بندی صداهای نابه‌هنجار و مخل در رادارها و شناسایی گوینده رزمی.
سیستم‌های تجاری(Financial systems): شامل تجزیه و تحلیل انبار مغازه‌ها، ارزیابی واقعی املاک و …
برنامه‌ریزی، کنترل و جستجو(Planning, control, and search): شامل اجرای موازی مسائل و کنترل رباتها.
هوش مصنوعی (Artificial intelligence): شامل برخی سیستم‌های طبی و اجرای سیستم‌های خبره.
سیستم‌های قدرت (Power systems): شامل برآورد وضعیت سیستم، ردیابی سریع و دسته‌بندی ردیابی، ردیابی خطا و ترمیم آن، پیش بینی و

پایان نامه
Previous Entries دانلود تحقیق با موضوع شبکه های عصبی، شبکه عصبی، پردازش اطلاعات، قابلیت یادگیری Next Entries منبع پایان نامه ارشد با موضوع ورشکستگی، بورس اوراق بهادار، تحلیل پوششی، پیش بینی ورشکستگی