دانلود پایان نامه درباره هوش مصنوعی، محدودیت ها، روش تحقیق، خودمختاری

دانلود پایان نامه ارشد

این فاعل ها ، خوب باشند، به سختی فکر کنند.
آیا ما، در مورد ساخت ماشین های تصمیم گیرنده اخلاقی، هنوز در حوزه افسانه های علمی به سرمی بریم؟ و یا شاید اوضاع بدتر از این باشد و ما در شاخه ای از افسانه های علمی غرق باشیم که اغلب مربوط است به هوش مصنوعی؟ اگر ما فقط درباره ظهور AMAها پیشگویی های ناقصی داشته باشیم، این اتهام قابل توجیه است. اما ما درباره آینده چیزی نمی دانیم و نمی دانیم که آیا موانع آشکاری که سر راه هوش مصنوعی قرار دارد، موانعی واقعی هستند و یا توهمی از مانع هستند. ما نه علاقه داریم که به این فکر کنیم که زمانی که وکیل ما یک روبات خواهد بود، زندگی ما چه شکلی خواهد داشت، و نه حتی دوست داریم پیش بینی کنیم که آیا این اتفاق واقعاً خواهد افتاد یا نه. بلکه ما بیشتر دوست داریم که از تکنولوژی های امروزی قدری فراتر رویم و به سمت تکنولوژی هایی حرکت کنیم که نیازمند ظرفیت تصمیم گیری اخلاقی خواهند بود. شاید همین قدم های کوچک، در نهایت منجر شود به هوش مصنوعی کاملاً پیشرفته. اما حتی اگر نتوانیم سیستم های کاملاً هوشمند بسازیم، باز هم یک موضوع واقعی وجود دارد که مهندسان با آن مواجه می شوند و آن موضوع نباید تنها توسط مهندسان بررسی شود.
آیا اکنون برای بررسی این موضوع، خیلی زود نیست؟ نه اینطور نیست. روبات های صنعتی که در کارهای مکانیکی بکار برده می شوند، گاهی باعث آسیب انسان و حتی مرگ او می شوند. ردم آنقدر متقاضی روبات های خانگی و خدماتی وجود هستند که این امر باعث شده است تا سال 2010، بازار این نوع روبات ها دو برابر بازار روبات های صنعتی شود، و تا سال 2025، چهار برابر خواهد شد. با ظهور روبات های خانگی و خدماتی، دیگر روبات ها محدود به محیط های صنعتی، یعنی جایی که فقط کارگران آموزش می دیدند که با روبات ها تعامل داشته باشند، نیستند. عروسکهای روباتی کوچک، مثل AIBO از شرکت سونی، طلایه داران وسایل روباتیک بسیار زیادی هستند. میلیون ها روبات جاروبرقی، برای مثال “رومبا”8 از شرکت آی روبوت 9، خریداری شده اند. کاربرد های اولیه روباتی در بیمارستان ها و روبات های راهنما در موزه ها از قبل به وجود آمده اند. در اینجا توجه ما به گسترش روبات های خدماتی ای جلب می شود که کارهای اساسی خانه را انجام می دهند و به افراد مسن کمک می کنند. برنامه های کامپیوتری، میلیون ها معامله تجاری را با چنان کفایتی انجام می دهند که انسانها قادر نیستند آنرا آنگونه انجام دهند. تصمیمات نرم افزاری برای خرید و فروش سهام، کالاها و ارزها، ظرف چند ثانیه گرفته می شود و چنان سودی را در بر دارد که هیچ انسانی نمی تواند در حال حاضر آن را تشخیص دهد و درصد مهمی از فعالیت در بازارهای جهانی را نشان می دهد.
سیستم های مالی خودکار، عروسک های روباتیک، و جاروبرقی های روباتی هنوز برای تبدیل شدن به ماشین های کاملاً خودکاری که تصمیمات اخلاقی می گیرند و روی رفاه انسان تأثیرگذارند، راه زیادی در پیش دارند. اما، انسان ها از قبل به نقطه ای رسیده اند که در آن سیستم های مهندسی، تصمیماتی می گیرند که می تواند روی زندگی انسان تأثیرگذار باشد و مسائل اخلاقی ایجاد کند. در بدترین موارد، آنها تأثیرات منفی داشته اند.
آیا ساختن یک AMA ممکن است؟ سیستم های مصنوعی کاملاً آگاه همراه با ظرفیت های اخلاقی کامل انسانی، شاید برای همیشه در حوزه افسانه های علمی باقی بمانند. با این وجود ما معتقدیم که به زودی سیستم های محدودتری ساخته می شوند. چنین سیستم هایی ظرفیت ارزیابی جنبه های اخلاقی اعمال خود را دارند- مثلاً اینکه تشخیص می دهند که هیچ گزینه ندارند به جز آنکه به خاطر حفظ حق حریم خصوصی، حق مالکیت را نقض کنند.
طراحی AMAهای اخلاقی، مستلزم مطالعه جدی تئوریهای اخلاقی است، که از نقطه نظرات انسانی نشأت گرفته اند. ارزش ها و نگرانی هایی که در سنت های فلسفی و مذهبی جهان توصیف شده اند، به راحتی قابل بکار بردن در ماشین ها نیستند. وارد کردن سیستم های اخلاقی مبتنی بر قاعده، مثل ده فرمان10 یا سه قانون روباتیک آسیموف11، در کامپیوتر ها آسان تر است، اما همانطورکه بسیاری از داستان های روباتی آسیموف نشان می دهند، حتی سه قاعده آسان هم می توانند معماهای اخلاقی زیادی را ایجاد کنند. اخلاق ارسطو بیشتر روی شخصیت تأکید داشت تا قاعده: اعمال خوب از شخصیت های خوب سر می زند، و سعادت انسان منوط بود به رشد شخصیت فضیلتمند او. البته برای انسانها، رشد فضایل خودشان هم سخت است، چه برسد به توسعه فضایل مناسب برای کامپیوترها یا روبات ها. مواجه شدن با این چالش مهندسی، مستلزم مطالعه سرمنشأ اخلاق انسان است، همانطور که در تکامل، یادگیری و رشد، عصب شناسی و فلسفه مطالعه شده است.
اخلاق ماشین، همان اندازه که درباره تصمیم گیری انسانی صحبت می کند، درباره موضوعات فلسفی و عملی ساخت AMAها هم صحبت می کند. همانطور که AI خطوط پرسشی جدیدی را در فلسفه ذهن وارد می کند، اخلاق ماشین ،پتانسیل آن را دارد که خطوط پرسشی جدیدی را در اخلاق مطرح کند.
پرسش های فرعی
تا کنون سه پرسش به صورت طبیعی از بحث ما نتیجه می شوند. آیا جهان به AMAها نیاز دارد؟ آیا مردم می خواهند که کامپیوترها تصمیمات اخلاقی بگیرند؟ و اگر مردم معتقدند که کامپیوترهایی که تصمیمات اخلاقی می گیرند، لازم و یا اجتناب ناپذیرند، فیلسوفان و مهندسان چگونه باید فرآیند طراحی AMAها را پیش ببرند؟

ساختار پایان نامه
در این پایان نامه سعی می شود به پرسشهای اصلی و این پرسش های فرعی که در فرآیند ساخت AMAها پیش روی انسان قرار خواهند گرفت، پاسخی مناسب داده شود. در این پایان نامه بعد از تعریف هوش مصنوعی و بیان تاریخچه پیدایش آن، مسائل اخلاقی ای مطرح می شوند که ظهور این سیستم ها برای انسان ایجاد می کنند. مسائل اخلاقی طرح شده از دو جهت مورد بررسی قرار می گیرند. جهت اول تأثیری است که این تکنولوژی ها روی ماهیت انسان و فرهنگ انسانی خواهند داشت. در خلال بیان این مسئله، به پرسش دوم (آیا انسانیت از کامپیوترها می خواهد که تصمیمات اخلاقی بگیرند؟) پاسخ داده می شود. مسائلی که در اینجا مطرح می شوند از این قبیل هستند که مثلاً آیا پیشرفت AMAها، باعث می شود که انسان ها مسئولیت اخلاقی خود نسبت به ماشین ها را نادیده بگیرند؟ و یا اینکه، آیا ماشین ها، انسان ها را برده خود خواهند کرد؟ و جهت دوم آن مسائلی اخلاقی است که این سیستم ها برای زندگی انسان ایجاد می کنند، و در خلال بحث پیرامون این مسائل، پرسش اول هم، ( آیا جهان به AMAها نیاز دارد؟)، پاسخ داده می شود. در این بخش ما خواهیم گفت که وجود سیستم هایی که دارای ظرفیت تصمیم گیری اخلاقی باشند- مثل سیستم های خبره- برای ما اجتناب ناپذیر است. سپس، در فصل بعدی، به بررسی این موضوع خواهیم پرداخت که هدف طراحان AMAها از خلق آنها باید چه باشد، به عبارت دیگر یک AMAی خوب باید چه ویژگی هایی داشته باشد؟ در اینجا، چارچوبی را طراحی می کنیم که دارای دو بعد خودمختاری و حساسیت نسبت به ارزش ها است. سیستم هایی که در قسمتهای پایینی نمودار ما قرار می گیرند، دارای “اخلاقیت عملی”12 هستند، یعنی اهمیت اخلاقی آنها در دستان طراحان و کاربران قرار دارد. اما هرچه ماشین ها خبره تر می شوند، میزان “اخلاقیت کارکردی”13 آنها بیشتر می شود، و احتمال بیشتری وجود دارد که خود ماشین ها ظرفیت تعیین و پاسخگویی به چالش های اخلاقی را داشته باشند. سپس این موضوع مطرح می شود که آیا ماشین ها می توانند فاعل های اخلاقی باشند؟ در حال حاضر ما فاعل مصنوعی کاملاً اخلاقی نداریم، اما کارهای مناسبی انجام شده اند که می توانند مشخص کنند که یک فاعل مصنوعی اخلاقی چه ویژگی هایی باید داشته باشد. در فصل بعد درباره میزان قابل محاسبه بودن و عملی بودن نظریه های اخلاقی سودگرایی و وظیفه گرایی، می پردازیم. اینها به اصطلاح رویکردهای از بالا به پایین هستند. سپس رویکردهای از پایین به بالا را بررسی می کنیم که متدهای یادگیری، توسعه و تکامل را بکار می گیرند تا ظرفیت های اخلاقی ای که از گونه های هوشمند گوناگون پدیدار می شود را در فاعل های مصنوعی، شبیه سازی کنند. اما رویکردهای از بالا به پایین و از پایین به بالا، هر دو محدودیت هایی دارند که توضیح داده می شوند. بنابراین ما نیازمند رویکردی هستیم که این محدودیت ها را بشناسد، نقاط قوت و ضعف آنها را در برنامه ریزی AMAها بداند، سپس چارچوبی را برای ساخت AMAها ارائه کند که هم از نظر فلسفی خبره باشد، و هم از نظر شناختی.
تمایز میان رویکردهای از بالا به پایین و از پاین به بالا، آنقدر ساده است که نمی تواند تمام چالش هایی که ما در ساخت AMAها با آنها مواجه هستیم را پوشش دهد. لازم است که مهندسان این دو رویکرد را باهم ترکیب کنند تا به یک رویکرد عملی برسند. مسائلی که در بکار بردن رویکردهای از بالا به پایین وجود داشت، در بکار بردن اخلاق فضیلت ارسطویی هم وجود دارد. رویکرد فضایل، ترکیبی است از دو رویکرد قبلی، به این صورت که ما می توانیم فضایل را دقیقاً توصیف کنیم، اما چگونگی اکتساب فضایل توسط افراد، به نظر می رسد که رویکرد از پایین به بالا باشد.
ضرورت انجام تحقیق:
هر چه تکنولوژی هوش مصنوعی پیشرفته ترمی شود، موجودات هوشمند میزان خودمختاری بیشتری پیدا می کنند و میزان هوشمندی آنها بالاتر می رود، تا جایی که احتمال اینکه روزی با هوش انسان برابری کنند و یا از انسان پیشی گیرند، بسیار قوی است. فاعل های هوشمند، در جایگاه تصمیم گیری های اخلاقی قرار خواهند گرفت و مانند انسان ها توانایی استدلال و تصمیم گیری را بدست خواهند آورد. اگر این فاعل ها بدون هیچ محدودیت اخلاقی، بتوانند تصمیم گیری کرده و اعمالی را انجام دهند، بروز فاجعه در جوامع انسانی، امری اجتناب ناپذیر خواهد بود. لذا مهندسان و فیسوفان باید در روند طراحی AMAها محدودیت های اخلاقی را اعمال کنند تا ساخت و بکارگیری این فاعل های هوشمند، در جهت سهولت زندگی انسن ها باشد ، نه نابودی آن.
فرضیه ها:
میزان هوشمندی موجودات هوشمند،روزی از انسان ها پیشی خوهد گرفت.
موجودات هوشمند بر انسان ها چیره خواهند شد.
فاعل های هوشمند، قدرت استدلال و تصمییم گیری اخلاقی خواهند داشت.
همانطور که هوش مصنوعی می تواند موجب سهولت زندگی انسان شود، می تواند برای سلامت و بقای انسان خطرناک هم باشد.
انسان ها در موقعیت هایی قرار خواهند گرفت که باید به تصمیمات فاعل های هوشمند اعتماد کنند.
روش تحقیق:
روش تحقیق در این رساله روش کتابخانه ای است. به علت در اختیار نداشتن کتاب هایی که به طور خاص در این زمینه کار شده باشند، برای یافت منابع تحقیقاتی مناسب، از اینترنت استفاده شده است و مقالات بکار رفته در این رساله عموماً از طریق سایت های علمی و تحقیقاتی گوناگون دریافت شده اند.

فصل اول

کلیات

1-1 14AIچیست؟
هوش مصنوعی دقیقا” چیست؟ در مورد اینکه هوش مصنوعی چه هست و چه نیست تفاسیر زیادی وجود دارد به همین علت تعریف دقیقی که مورد توافق همه دانشمندان این حوزه از دانش باشد در مورد آن وجود ندارد. علت نبود یک تعریف دقیق برای هوش مصنوعی آن است که متخصصان AIهمیشه تلاش می کنند تا مشخص کنند که ” مرز بین AI و غیرAI کجاست؟” بنابراین نمی توانند معیار مشخصی برای هوش مصنوعی در نظر بگیرند.
اولین تعریف هوش مصنوعی توسط مارگارت بودن 15 ارائه شد. او می گوید : “هوش مصنوعی یعنی مطالعه چگونگی ساخت برنامه های کامپیوتری ای که کامپیوترها را قادر می سازد که اعمالی را انجام دهند که ذهن می تواند آ ن اعمال را انجام دهد.”16
ماروین مینسکی 17در سال 1968 AIرا “معلم ساخت ماشین هایی می داند که کارهایی را انجام می دهند که اگر این کارها توسط انسان انجام شود، نیازمند هوش است.”18
در سال 1976 وایزنتام19، تعریف فوق را مشخص تر کرد. او استدلال کرد که “هدف برجسته AI، خلق یک سیستم مصنوعی است که با هوش انسان مساوی باشد و یا از آن برتر باشد.”20
یکسال بعد وینستون21

پایان نامه
Previous Entries دانلود پایان نامه درباره هوش مصنوعی، اخلاق کار، اخلاق کاربردی، ایالات متحده Next Entries دانلود پایان نامه درباره هوش مصنوعی، علوم کامپیوتری، ماشین تورینگ، منابع محدود