منبع پایان نامه درمورد شبکه های عصبی، شبکه های عصبی مصنوعی، شبکه عصبی، پردازش اطلاعات

دانلود پایان نامه ارشد

آن را شامل می شود ، را نشان می دهد :
〖A_(i,j)〗^((t) )=[■(〖〖(a〗_(i-1,j-1)〗^((t) ))&〖〖(a〗_(i-1,j)〗^((t) ))&〖〖(a〗_(i-1,j+1)〗^((t) ))@〖〖(a〗_(i,j-1)〗^((t) ))&〖〖(a〗_(i,j)〗^((t) ))&〖〖(a〗_(i,j+1)〗^((t) ))@〖〖(a〗_(i+1,j-1)〗^((t) ))&〖〖(a〗_(i+1,j)〗^((t) ))&〖〖(a〗_(i+1,j+1)〗^((t) )))]

در مثال معین که در شکل 9-3 دیده می شود همسایگی پیکسل شهری واقع شده در موقعیت شبکه ای (3,4) را می توان به صورت زیر نوشت :
〖A_3,4〗^((t) )=[■(W&R&[email protected]&U&[email protected]&R&U)]

بطوریکه حالت های W ,U و R به ترتیب کلاس های کاربری اراضی شهری، آبی و جاده را نشان می دهد .

شکل 9-3 : همسایگی پیکسل شهری واقع شده در موقعیت شبکه ای

روشی واحد برای تعریف ساختار همسایگی در یک فضای سلولی I×I وجود ندارد . با این وجود اغلب روشهای معمول برای طراحی همسایگی از یک دسته از پیکسل های به مهم متصل اطراف پیکسل تست استفاده می نمایند (شکل 10-3 ) :
τ(α,β)=|x_α-├ x_β ┤|+├|y_α-├ y_β ┤|┤┤

پیکسل های مفروض یا معین α=(x_α-y_β) و β=(x_β-y_β) ، تابع τ(α,β) یک دسته از پیکسل های متصل β اطراف پیکسل α بطوریکه {β∈I×I} را تعریف می کند . در شکل9-3 همسایگی 3×3 مور برای α انتخاب شده است . متغییر τ بعد ناحیه همسایگی x_α-x_β=∓1 را در جهت محور x ها و y_α-y_β=∓1 در جهت محور y ها از کلیه 9 پیکسل مزبور را نشان می دهد . پیکسل های قطری نیز پس از اینکه به پیکسل تست متصل شدند در تعریف همسایگی قرار می گیرند . در حالت همسایگی مدور ، τ قطر ناحیه را نشان خواهد داد . همه تعداد پیکسل های تعریف شده توسط τ پیکسل های محصور یا ضمیمه شده توسط ناحیه همسایگی مدور را نمایش می دهد.

شکل 10-3 : همسایگی 3×3 مور برای α

سلول های خودکار دو بعدی در نشانه گذاری با نمادهای ( , 〖a_(i,j)〗^((t) ) Ø, Ω^((t))) معین می شوند به طوریکه 〖a_(i,j)〗^((t) ) یک عنصر مشخص از فضای سلولی و Ø و Ω^((t)) نمادهای برای تابع انتقال محلی هستند . در شکل ؟ کلیه وضعیت های فضای سلولی ، Ω^((t)) از سه وضعیت مجزای شهری ، آب و جاده ترکیب یافته اند ( کلا 25 وضعیت) :. عنصر 〖a_(i,j)〗^((t) ) می تواند هر نوع وضعیت منفردی از مجموعه Ω^((t)) را نشان بدهد . تابع انتقال محلی Ø قوانین سلول های خودکار تعریف شده بر همسایگی را که حالت آتی هر سلول تست را مشخص می نماید ، را نماش می دهد .
رابطه بین حالت پیکسل تست در زمان (t+1) و حالت فعلی و حالت های همسایگی در زمان t را می توان به صورت زیر بیان نمود :
〖a_(i,j)〗^((t+1) )=Ø〖〖(A〗_(i,j)〗^((t) ))
بطوریکه تابع Ø〖〖(A〗_(i,j)〗^((t) )) نشان دهنده قوانین تعریف شده سلول های خودکار محلی اعمال شده بر تابع حالت همسایگی〖A_(i,j)〗^((t) ) برای پیشبرد فرآیندهای مدل سازی می باشد . تابع Ø〖〖(A〗_(i,j)〗^((t) )) قوانین IF….THEN را بر 〖A_(i,j)〗^((t) ) در جهت تشخیص وضعیت آتی سلول a_(i,j) در زمان t+1 را اعمال می نماید .
این قسمت خلاصه ای از تئوری سلول های خودکار بود که در مدل سازی شهری بکار برده خواهد شد ( بویژه سلول های خودکار دو بعدی ) . جنبه های دیگر سلول های خودکار ، نظیر طرح ارزیابی و کالیبره کردن فضایی – زمانی در هنگام اجرای مدل مطرح خواهد شد .

3-3-شبکه های عصبی

3-3-1-پیش زمینه
شبکه های عصبی مصنوعی الگوهای برای پردازش اطلاعات هستند که با تقلید از شبکه های مغزی انسان ساخته شده اند .سیستم پردازش اطلاعات در شبکه های عصبی مصنوعی دارای ساختاری جدید است. ایده شبکه های عصبی مصنوعی با تحقیق در باره سلول های مغزی انسان شروع شد (سلطانی و دیگران، 89). مغز بشر از میلیون ها نرون عصبی منحصر به فرد تشکیل شده است و این رشته شامل :
سوما : بدنه سلول که شامل هسته و قسمت های حفاظتی دیگر است
دندریت : منطقه ورودی سلول که مجموعه ای از الیاف شاخه ای می باشد .
اکسون : ناحیه خروجی و خط انتقال نرون ، که به صورت رشته های شاخه ای می باشد و نسبت به سایر اجزای سلولی بلندتر است .
اجزای شبکه های عصبی مغزی در شبکه های عصبی مصنوعی نیز یافت می شوند . این اجزا به نحوی شایسته ای با هم در ارتباط اند. هر نرون در شبکه از فعالیت سایر نرون ها متاثر می باشد و به همین دلیل ، ویژگی های منحصر به فرد پردازش مغزی را دارا می باشند . همین قابلیت باعث می شود هنگامی که شبکه های عصبی مصنوعی در شرایط جدید قرار بگیرند پاسخ مناسبی ارائه دهند . شبکه های عصبی مصنوعی ، مجموعه ای از عناصر پردازنده متصل غیر خطی می باشند . این شبکه ها از اتصال عناصر پردازنده منفرد با تعداد زیادی ورودی و یک خروجی تشکیل شده اند. عنصر پردازنده شبکه های عصبی مصنوعی در دو مرحله فعالیت می کند : مرحله یادگیری و مرحله کاربرد. در حالت یادگیری عنصر پردازنده می آموزد که برای حالت خاصی فعال و بر انگیخته شود یا برای همان حالت بر انگیخته نشود و در حالت کاربردی وقتی الگوی ورودی آموزش یافته ای شناسایی شود ، خروجی مرتبط با آن تولید می گردد . اگر الگوی ورودی به لیست الگوهای ورودی که از پیش به سلول آموزش داده شده شبیه نباشد ، قوانین فعال سازی تعیین می کنند که خروجی سلول فعال کننده باشد یا نه .
هر واحد پردازنده در شبکه های عصبی مصنوعی ، دارای یک مشخصه ورودی و خروجی است . خروجی هر واحد ، با توجه به اتصالات درونی آن به سایر واحد ها و احتمالات ورودی های خارجی تعیین می گردد . عمل یا عملکرد کلی شبکه های مصنوعی توسط توپولوژی شبکه ، خصوصیات نرون های منفرد ، روش یادگیری و داده های آموزش تنظیم می شود. دو مرحله جداگانه در شبکه های عصبی مصنوعی وجود دارد : مرحله آموزش (training)که در آن داده ها به صورت پیوسته به شبکه وارد می شوند و تا زمانی که پاسخ مطلوب به دست آید وزن ها احیا می شوند . مرحله دوم ، مرحله باز پس دهی (test) است که در آن شبکه با وزن های نهایی ، برای داده های جدید به کار می رود . مرحله آموزش بسیار زمان بر است ، ولی به محض اینکه شبکه آموزش داده شد ، مرحله باز پس دهی به سرعت انجام می شود .

3-3-2-اجزای یک شبکه عصبی
شبکه های عصبی مصنوعی از قسمت های مختلفی تشکیل شده است اجزای یک شبکه عصبی عبارتند از :
ورودی ها
سیگنال های ورودی x1 تا xn معادل سیگنال های عصبی ورودی می باشند و در مجموع ورودی نرون را تشکیل می دهند . ورودی ها به صورت های ذیل هستند:
الف ) داده های عددی و رقمی
ب ) متون ادبی ، فنی و …
ج ) تصویر و یا شکل

بردار وزن
وزن های wi2 تا win معادل مقادیر اتصالات سیناپسی ورودی های نرون می باشند . این مفهوم در شکل 11-3 نشان داده شده است . میزان تاثیر ورودی xi بر خروجی y ، توسط مشخصه ی وزن اندازه گیری می شود . wi قابل تنظیم بوده ، و بر اساس تابع تبدیل و نوع الگوریتم یادگیری تعدیل می شود.
تابع جمع
تابع جمع (adder) که از رابطه زیر تعریف می شود ، عملیات پردازش نرون را انجام می دهد . در شبکه های تک نرونی ، تابع جمع خروجی مسئله را تا حدودی مشخص می کند ، و در شبکه های چند نرونی نیز تابع جمع سطح فعالیت نرون j در لایه های درونی را مشخص می سازد .
∑_(j=1)^n▒x_j w_ij
توابع فعالیت
تابع فعالیت (activation function) که آن را تابع تبدیل و تابع فشرده سازی نیز می نامند – تابعی است که مقادیر خروجی یک نرون مصنوعی را ، بر اساس مقادیر ورودی اش تعیین می کند. به تعبیر بهتر ، تابع فعالیت آستانه ای برای مقادیر خروجی هر نرون در نظر می گیرد. قانون فعال سازی تعیین می کند که چگونه یک نرون واکنش فعال سازی برای هر الگوی ورودی را انجام دهد . این قانون برای کلیه الگو ها شرح داده می شود . تابع فعال سازی محدوده ی وسیعی از مقادیر ورودی را به مقدار خاص خروجی نگاشت می کند . به عنوان مثال ، در شبکه های عصبی می توان هر مقدار خروجی را به مقادیر 0 و 1 نگاشت کرد . انواع مختلفی از توابع فشرده سازی وجود دارند ، از قبیل تابع فعال سازی آستانه ای ، خطی چند تکه ، سیگموئید ، گوسین و تابع تانژانت هایپربولیک . ولی از توابع فشرده سازی سیگموئید و تابع تانژانت هایپربولیک بیشتر استفاده می شود . این توابع از روابط زیر محاسبه می شوند :
تابع سیگموئید p(t)=1/(1+e^(-1) )

تابع تانژانت هایپربولیک y= (e^x- e^(-x))/(e^x+ e^(-x) )

3-3-3-اصول شبکه های عصبی مصنوعی
چنانچه پیشتر مشاهده شد شبکه های عصبی می توانند به عنوان “یک سیستم ترکیب یافته از عناصر پردازشی ساده که عملکرد موازی آن توسط ساختار شبکه ، قدرت اتصال و پردازش انجام شده در محاسبه عناصر یا گره ها تعیین می شود ، عمل می کنند (DARPA report, 1988) . این بخش اصول اولیه شبکه های عصبی ، تابع شعاعی پایه و بخصوص الگوریتم پیشخور را که در شبیه سازی رشد شهری مورد استفاده قرار گرفته است را مطرح می نماید . در ابتدا توصیفی کلی از علایم و اختصارات و تئوری مربوط به شبکه های عصبی نظیر توصیف نرون و فرایند یادگیری ارایه شده است . سپس به پیشینه تئوریکی الگوریتم های بکار رفته در این پژوهش پرداخته شده است .
یک شبکه عصبی از اجتماع نرونها تشکیل می شود که یک سیستم کاملا پیچیده و غیر خطی خواهد بود. به علاوه ، خاصیت غیر خطی عناصر پردازش ، در کل شبکه توزیع می گردد. قابلیت یادگیری یعنی توانایی تنظیم پارامترهای شبکه در مسیر زمان که محیط شبکه تغییر می کند و شبکه شرایط جدید را تجربه می کند، با این هدف که اگر شبکه برای یک وضعیت خاص آموزش دید وتغییر کوچکی در شرایط محیطی آن رخ داد ، شبکه بتواند با آموزش مختصر برای شرایط جدید نیز کارآمد باشد . هر نرون در شبکه ، به صورت بالقوه از کل فعالیت سایر نرونها متاثر می شود. در نتیجه، اطلاعات از نوع مجزا از هم نبوده بلکه متاثر از کل شبکه می باشد. به عبارت دیگر هر نرون در شبکه از کل فعالیت سایر نرونها متاثر می باشد در نتیجه چنانجه بخشی از سلولهای شبکه حذف شوند ویا عملکرد غلط داشته باشند باز هم احتمال رسیدن به پاسخ صحیح وجود دارد( منهاج 1389).

شبکه های عصبی بخوبی از داده های با یک نوع الگوی مشخص یاد می گیرند . آنها یکبار الگو را از طریق داده های آموزشی یاد گرفته ، سپس بخوبی بر روی داده های آزمایشی که هرگز قبلا ندیده اند اجرا می کنند . چنانچه در شکل 11-3 دیده می شود ، فرآیند های آموزش و یادگیری در شبکه های عصبی بر اساس مقایسه خروجی شبکه (O) ، برای یک سری داده های برداری ورودی معین (X) ، با یک هدف خروجی (T) برای شناسایی بهترین وزن ها (W) برای حداقل خطا (T-O) بنا شده است .

شکل شماره 11-3 : فرایند های آموزش و یادگیری در شبکه های عصبی

دو روش آموزش در شبکه های عصبی معمول است (Schraudolph and Cummins, 2006) : آموزش دسته (batch training) ، بطوریکه وزن ها بر اساس بردار ورودی منحصر به فردی – قسمتی از داده ها- به هنگام می شوند . در آموزش توافقی یا سازگار وزن ها به هنگام می شوند و سپس برای تعلیم داده ورودی برداری بعدی استفاده می شوند .
یک نرون مصنوعی در شبکه های عصبی ، واحد پردازش ساده ای را در شبکه نشان می دهد که داده های ورودی را با متغییر خروجی مرتبط می کند . نماد سازی آن به صورت ریاضی برای یک نرون را می توان در معادله زیر و شکل 12-3 مشاهده نمود (Nissen, 2003) :
O(x)=g(∑_(i=0)^n▒〖w_i x_i 〗)

بطوریکه O(x) خروجی از نرون تعریف شده بر متغییر ورودی x ( شامل n مشاهده ، x_0… x_n ) تعدیل شده یا وفق داده شده یا سازگار شده با وزن های w (w_0… w_n) استفاده شده در تابع g .
تابع g در شبکه عصبی یک تابع فعال سازی است . یک تابع فعال سازی ساده می تواند بر مبنای داده های ورودی وزن دار ، برای بازگشت به 0 یا 1 تعریف شود ( مانند طبقه بندی یک پیکسل در دو کلاس) . به هر حال شبکه های عصبی معمولا از توابع فعال سازی پیوسته نرم به جای توابع دو دویی برای پوشش احتمالات طبقه

پایان نامه
Previous Entries منبع پایان نامه درمورد شبیه سازی، توسعه شهر، توسعه شهری، توسعه اقتصادی Next Entries منبع پایان نامه درمورد شبکه های عصبی، شبیه سازی، پرسپترون چند لایه، شبکه عصبی