دانلود پایان نامه درباره هوش مصنوعی، اخلاق کار، اخلاق کاربردی، ایالات متحده

دانلود پایان نامه ارشد

بررسی مسائل اخلاقی هوش مصنوعی، مستلزم مشارکت همزمان چند رشته علمی و همکاری دانشمندان و متفکران آنهاست. برای تبیین دقیق مسائلی که تکنولوژی هوش مصنوعی در آینده پیش روی ما قرار خواهند داد، باید فیلسوفان، دانشمندان علم کامپیوتر و هوش مصنوعی و متخصصان اخلاق را گرد هم آورد تا بتوان دورنمای درستی از آینده احتمالی به دست آورد و روش های صحیحی را برای جلوگیری از فجایع، و همچنین برای طراحی درست سیستم های هوشمند، ارائه داد. به طور کلی کار در این حوزه، یک مطالعه میان رشته ای است و تبیین مسائل اخلاقی آن، مربوط است به رشته اخلاق کاربردی1. اخلاق کاربردی، شاخه ای از اخلاق هنجاری2 است که بواسطه تمرکز ویژه بر موارد عینی و جزئی و تلاش برای بررسی و حل معضلات اخلاقی، از فرا اخلاق3 و نظریه های هنجاری متمایز می شود؛ این شاخه که به لحاظ محتوایی می توان نشانه هایی از آن را در آثار سقراط، افلاطون، لاک، کانت، بنتام، میل، نیچه و سارتر یافت، رسماً از سال 1960 م، به عنوان شاخه ای از اخلاق مطرح گردید. اخلاق کاربردی را می توان در حوزه فردی، شامل اخلاق خانواده، روابط شخصی مثل دوستی با دیگران و رابطه با پیران و جوانان، و در حوزه اجتماعی، شامل اخلاق علم و تکنولوزی، ریست پزشکی، زیست محیطی، سیاسی، حقوقی، رسانه ای، ورزشی و … دانست که طبیعتاً اخلاق حرفه ای را نیز در بر می گیرد.
روش بکارگیری اصول و قوانین اخلاقی برای تحق اهداف اخلاق کاربردی سه نوع است: روش های از بالا به پایین، از پایین به بالا و تعادل متأملانه. در شیوه نخست، فرد از حوزه کلی به سمت جزئیات حرکت می کند، در حالیکه مجموعه ای از اصول ،قواعد، معیارها یا قوانین کلی، مقدمه اصلی برهان را تشکیل می دهند و مقدمه دیگر،گویای موقعیت خاصی است که ما در آن قرار گرفته ایم. شیوه دوم، به جای تأکید بر قواعد کلی، بر تصمیمات جزئی عملی نظر دارد. در این شیوه، ما از ابتدا اصول و قواعد معینی را در اختیار نداریم، تا بر اساس آن، وضعیت خود را به لحاظ اخلاقی تشخیص داده و تصمیم گیری کنیم که در شرایط مورد نظر چه باید کرد؛ بلکه در این شیوه، توافقات و رفتارهای اجتماعی افراد به عنوان نقطه شروع استدلال و تصمیمات اخلاقی انتخاب می شود که با توسعه آن به موراد جدید می توان تصمیمی مشابه تصمیمات گذشته گرفت و از مجموع آنها به حکم کلی و اصلی دست یافت. اما ناکافی بودن دو شیوه مذکور، برای استدلال اخلاقی، در حوزه اخلاق کاربردی، شیوه سومی را پیشنهاد می کند که به شیوه تعادل متأملانه معروف است؛ این شیوه به گونه ای ترکیبی است از دو شیوه قبلی، که در آن هم موارد جزئی لحاظ شده است، هم از اصول کلی غفلت نشده است؛ اما به این صورت که هر بخش این کار را گروهی بر عهده می گیرند که هم توان بهره برداری بیشتری از آن دارند، هم نسبت به آن آگاهی فزونتری دارند؛ دراین شیوه، متخصصان به توصیف موقعیت جزئی می پردازند و فیسوفان، بر اساس نظریه ها و اصول کلی اخلاقی، با تحلیل موقعیت ها و انطباق آنها بر اصول کلی، در صدد ارائه راه حل بر می آیند.
چرا ما باید نگران مسائل اخلاقی ای باشیم که هوش مصنوعی برای ما ایجاد خواهد کرد؟ اصولاً بررسی این مسائل چه ضرورتی دارد؟ ما چه طرحی از آینده در ذهن خود داریم که ما را بر آن می دارد تا سعی کنیم آینده ای ایمن و مطمئن برای خود بسازیم؟ در حال حاضر چه اتفاقاتی در جهان در حال وقوع هستند؟
پیشینه اخلاق ماشین
در حال حاضر دانشگاه های ایالات متحده، بزرگترین مرکز تحقیقتی پیرامون چگونگی وارد کردن قید و بندهای اخلاقی در سیستم های هوشمند هستند تا از بروز فجایع انسانی در آینده جلوگیری کنند. در کشور ما هنوز هیچ کار علمی و پژوهشی ای در این مورد انجام نشده است. یکی از کتاب های کامل در این زمینه از طریق دانشگاه آکسفورد4 در نیویورک منتشر شده است. دانشگاه ام آی تی، بزرگترین مرکز علمی- تحقیقاتی در این زمینه است. سایر دانشگاه ها و نشریات در اروپا و کشورهایی نظیر ژاپن و کره جنوبی، کارهای علمی مفیدی در این زمینه انجام داده اند و مقالات متعددی در این زمینه به چاپ رسانده اند.

مسائل و پرسش های اصلی
از جمله پرسش هایی که با پیشرفت تکنولوژی برای ما به وجود خواهد آمد، پرسش از ماهیت انسانی در آینده نه چندان دور خواهد بود. آیا تکنولوژی هوش مصنوعی، به تدریج بر هوش انسان پیشی خواهدگرفت؟ آیا کرامت انسان از بین خواهد رفت؟ آیا انسان ها احساس حقارت و عدم توانایی خواهند داشت؟ آیا بیم آن می رود که موجودات هوشمند مصنوعی، روزی بر ما چیره شوند؟ آیا با اتوماتیک تر شدن تکنولوژی و کمتر شدن نظارت انسان، سلامت و زندگی انسان به خطر خواهد افتاد؟ آیا به راحتی می توان به تکنولوژی اعتماد کرد ؟
در لابراتوار محاسباتی دانشگاه ام آی تی، دانشمندان در حال طراحی کامپیوترهایی هستند که می توانند عواطف انسان را بخوانند. مؤسسات مالی، از شبکه های کامپیوتری جهانی استفاده می کنند تا در هر دقیقه میلیونها معامله تجاری را ارزیابی کرده و آنها را قبول و یا رد کنند. روبات شناسان در ژاپن، اروپا و ایالات متحده، در حال ساخت روبات های خدماتی هستند که از سالمندان و معلولان مراقبت می کنند. دانشمندان ژاپنی در حال انجام پروژه هایی هستند که تمایز بین انسان و آدم آهنی قابل تشخیص نباشد. دولت کره جنوبی اعلام کرده است که هدفش آن است که تا سال 2020 در هر خانه ای یک روبات وجود داشته باشد. همچنین این دولت با همکاری شرکت سامسونگ، در حال ساخت اسلحه هایی است که روبات دارند و در جنگ های مرزی این کشور با کره شمالی، به ارتش آنها کمک می کنند. در عین حال، با استفاده از کامپیوترها، در هر وسیله قابل مشاهده ای، از اتومبیل ها گرفته تا سطل های زباله، فعالیت های انسان ها تسهیل شده، تحت نظارت قرار گرفته و تحلیل می شود؛ نرم افزارهای روباتی هم در محیط های مجازی قابل مشاهده، از جستجوی صفحات وب گرفته تا خریدهای آنلاین، فعالیت انسان را تسهیل، نظارت و تحلیل می کنند. از اطلاعاتی که بوسیله این روبات ها جمع آوری می شود، در تجارت، کارهای حکومتی، و اهداف پزشکی استفاده می شود. واژه روبات، هم بر روبات های فیزیکی دلالت دارد و هم بر فاعل های نرم افزاری.
همه این پیشرفت ها روی ساخت روبات هایی متمرکز هستند که از خطای مستقیم انسان مستقل هستند و تأثیر بالقوه آنها روی سعادت انسان، موضوع افسانه های علمی تخیلی است. ایزاک آسیموف، بیش از 50 سال قبل، نیاز به قواعد اخلاقی برای هدایت رفتار روبات ها را پیش بینی کرده بود. سه قانون روباتیک او، اولین چیزی هستند که در تفکر درباره اخلاق ماشین، به ذهن مردم خطور می کند.
1-روبات نباید به انسان صدمه بزند و یا بواسطه تعامل با انسان، باعث شود که انسان آسیب ببیند.
2-روبات باید از دستوراتی که انسانها به او می دند اطاعت کند، مگر زمانی که این دستورات با قانون اول در تعارض باشند.
3-روبات باید از خودش محافظت کند، البته تا زمانی که این محافظت با قانون اول یا دوم متعارض نباشد.
اما نوشته های آسیموف بیشتر به داستان شبیه بودند. او با چالشی که امروزه مهندسان با آن دست به گریبان هستند، مواجه نشده بود: چالش مطمئن شدن از اینکه سیستم هایی که آنها می سازند، برای انسانیت سودمند هستند و به مردم صدمه نمی زنند. اینکه آیا سه قانون آسیموف به ما کمکی می کنند تا مطمئن شویم روبات ها به شکل اخلاقی عمل خواهند کرد، یکی از سؤالاتی است که در این پایان نامه مورد بحث قرار می گیرد.
پیش بینی می شود که در چند سال آینده، وقایع مصیبت باری توسط کامپیوترهایی که مستقل از انسان ها تصمیم گیری می کنند، اتفاق بیفتد. قبلاً در اکتبر 2007، روباتهای نیمه اتوماتیک شرکت کانن5 که در ارتش آفریقای جنوبی بکار گرفته شده بودند، به خاطر عملکرد نادرستشان 9 سرباز را کشتند و 14 سرباز دیگر را زخمی کردند-گرچه در گزارشات اولیه، درباره اینکه علت حادثه مشکل نرم افزاری بوده یا سخت افزاری، تناقضاتی وجود داشت. همانطور که این ماشین ها اتوماتیک تر می شوند، پتانسیل بروز فاجعه بزرگتر هم بیشتر می شود. حتی اگر این فجایع، به اندازه حادثه تروریستی 11 سپتامبر کشته نداشته باشند، باعث به وجود آمدن واکنش های سیاسی گسترده ای خواهند شد. برخی از جناح های سیاسی خواستار توسعه بیشتر تکنولوژی و برخی دیگر خواستار ممنوعیت کامل آن خواهند بود.(و شاید حتی خواستار جنگ علیه روبات ها می شوند.)
مسائل امنیتی و فواید اجتماعی، همیشه برای مهندسان بیشترین اهمیت را دارند. اما سیستم های امروزی به سطحی از پیچیدگی می رسند که در آن سطح باید خودشان تصمیمات اخلاقی بگیرند-آنها باید با کدهای اخلاقی، برنامه ریزی شوند. این امر، چرخه فاعل های اخلاقی را از انسانها تا سیستم های هوشمند مصنوعی ای که ما آنها را فاعل های اخلاقی مصنوعی می نامیم(6AMAها)، گسترده می کند.
در گذشته، تنها انسان ها در استدلال اخلاقی حضور داشتند، ولی اکنون زمان آن رسیده است که یک بعد اخلاقی به ماشین ها اضافه کنیم. در مقابل موضوعاتی مثل هک کردن، حریم خصوصی، مالکیت معنوی و سایر موضوعاتی که در رشته اخلاق کامپیوتر بررسی می شوند، رشته اخلاق ماشین، (منظور اخلاق سیستم های هوشمند است)، با موضوع چگونگی رفتار ماشین ها با کاربران انسانی و سایر ماشین ها سر و کار دارد. رشته اخلاق ماشین، رشته اخلاق کامپیوتر را گسترده تر می کند و پرسش اصلی این رشته را از مردم باید با کامپیوترهای خود چه کنند، تبدیل می کند به این پرسش که ماشینها با خود چه کاری انجام می دهند.
ما در حال بحث پیرامون مباحث تکنیکی هستیم که در وقتی کامپیوترها تبدیل به استدلال کنندگان اخلاقی می شوند، با آن مسائل روبرو خواهیم شد. همانطور که هوش مصنوعی، حوزه فاعل های خودکار را گسترده می کند، چالشی که با آن روبرو می شویم آن است که چگونه این فاعل ها را طراحی کنیم تا آنها به مجموعه ارزش ها و قواعدی که انسان ها از فاعل های انسانی انتظار دارند، احترام بگذارند.
آیا انسانیت واقعاً از کامپیوترها می خواهد که تصمیمات مهم اخلاقی بگیرند؟ بسیاری از فیلسوفان تکنولوژی این مسئله را هشدار داده اند که در صورت پیشرفت تکنولوژی، ممکن است انسانها مسئولیت اخلاقی خود را نسبت به ماشینها رعایت نکنند. فیلم ها و مجلات، پر از داستان های تخیلی درباره خطرات اشکال پیشرفته هوش مصنوعی هستند. همیشه اصلاح تکنولوژی در هنگام پیدایش آن، آسان تر از زمانی است که کاملاً تأسیس شده باشد. اما، همیشه ممکن نیست که بتوان به طور دقیق تأثیر تکنولوژی های جدید را بر جامعه پیش بینی کرد، مگر زمانی که آن تکنولوژِی به شکل گسترده ای در جامعه به کار برده شود. بنابراین، از نظر برخی منتقدان، انسان هایی که معتقدند باید از تکنولوژیهای خطرناک چشم پوشی کرد و یا ظهورشان را هشدار داد، در اشتباه هستند. اما ما معتقدیم که بازار و نیروهای سیاسی خواستار فوایدی هستند که این تکنولوژی ها به آنها می دهند، و سرانجام هم بر بقیه چیره می شوند. بنابراین لازم است که هر کسی که با این تکنولوژی سر و کار دارد، به طور مستقیم درباره کار اجرای تصمیم گیری اخلاقی در کامپیوترها، روبات ها، و بوت های مجازی7 در شبکه کامپیوتری، فکر کند.
ماشینها در حال گسترش هستند. وجود آنها تأثیرات ناخواسته ای روی زندگی و رفاه انسان ها دارد که البته همه این تأثیرات خوب نیستند. ما معتقد هستیم که افزایش اتکا به سیستم های خودکار، انسانیت اساسی انسان ها را از بین نمی برد. از نظر ما، روبات های پیشرفته انسان ها را به بردگی نخواهند گرفت و یا انسانیت را نابود نخواهند کرد. انسان ها همیشه خود را با محصولات تکنولوژیکی خود وفق می دهند و فواید داشتن ماشین های خودکار برای انسان ها، بیشتر از هزینه های آن خواهد بود.
اما نمی توان آنقدر هم خوش بین بود. نمی توان فقط نشست و امیدوار بود که همه چیز به بهترین شکل اتفاق بیفتد. اگر انسان ها بخواهند از نتایج بد ظهور فاعل های هوشمند اتوماتیک جلوگیری کند، مردم باید آمادگی این را داشته باشند که بتوانند در مورد کارهایی که لازم است انجام دهند تا

پایان نامه
Previous Entries پایان نامه با موضوع درگیری ذهنی، معادلات ساختاری، مدل معادلات ساختاری، آزمون فرضیه Next Entries دانلود پایان نامه درباره هوش مصنوعی، محدودیت ها، روش تحقیق، خودمختاری