دانلود پایان نامه درباره وظیفه گرایی

دانلود پایان نامه ارشد

فرآيند تصميم گيري كاركرد صحيح نداشته است. اينجا تئوري سودگرا مي تواند مستقيماً به كار گرفته شود، زيرا اصل سودگرايي تصريح مي كند كه محاسبات بايد دقيقاً در نقطه اي كه ادامه محاسبه، بيشتر از انجام عمل، روي سود متراكم تأثير منفي دارد، متوقف شوند. اما شما بدون اينكه واقعاً خود محاسبه را انجام دهيد چگونه مي فهميد كه چيزي ارزش محاسبه را دارد يا نه؟ اين تناقض آشكار تنها مي تواند با قطع كردن محاسبه توسط ابزارهاي ديگر حل شود.
مردم با همين چالش مواجه هستند و به همين علت برخي نظريه پردازان فكر نمي كنند كه سودگرايي يك تئوري مفيد يا عملي باشد. با اين وجود، انسانها با نيت بالا بردن سعادت، براي انجام اعمال برنامه ريزي مي كنند، هرچند همه چيز واقف نباشند. انسانها چگونه اين كار را انجام مي دهند؟ آنها به طور كلي چيزي را تمرين مي كنند كه “هرب سایمون”375 پدر دانش AI و برنده جايزه نوبل اقتصاد در سال 1982 آن را “عقلانيت محدود شده”376 مي نامد: “مجموعه بسيار محدودي از ملاحظات در تصميم گيري عقلاني فرد”377. سؤال آن است كه آيا يك سيستم محاسباتي بسيار محدودتر، كه همان اطلاعاتي را مي سنجد كه انسانها مي سنجند، يك فاعل اخلاقي كارآمد خواهد يود يا نه. و یا با در بر نداشتن همه ترجيحات، به اشتباه تخمين زدن آنها، يا موفق به فهم نتايج كوتاه و بلند مدت اعمال نشدن، به طور اجتناب ناپذيري موجب درد و رنج مي شود، همانگونه كه تاريخ بشريت ( به طور درد آوري ) به ما يادآوري مي كند.
سایمون و همكارش “آلن نیوول”378 پيشگامان استفاده از تخمين هاي اكتشافي – كاركردي بودند، يعني “قواعد سرانگشتي”379 – تا جستجوهاي پيچيده اي كه توسط سيستم هاي AI انجام مي شود را خلاصه كنند. جستجوهاي اكتشافي، براي موفقيت سيستم هايي مثل سيستم بازي شطرنج شركت آی بی ام به نام دیپ بلو 2، كه لازم نيست فضاي پهناور غير قابل تصور حركات شطرنج را در آينده نامعلوم جستجو كند تا بازي خوبي را انجام دهد، امري محوري هستند. در عوض، اين سيستم با استفاده از تخمين روش هاي ارزيابي روي به انجام رساندن اهداف متوسط تمركز مي كند: قواعد سرانگشتي اي كه تنظيمات مسلم قطعات روي تخته را با ارزش تر از ديگر قطعات مي داند.
شايد اكتشافات اخلاقي بتوانند براي بازي در همين نقش توسعه يابند. برای اكتشافات اخلاقي به كار گرفته شده در اعمال فردي، لازم است تا نتايج آني اعمال را درجه بندي كنند، هر چند احتمال دارد كه آنها از نظر اخلاقي خروجي هاي درجه دومي داشته باشند. براي مثال، سرنگون كردن يك دولت خارجي نتايج طولاني مدت زيادي دارد كه بايد تعيين شوند، اما تأثير اين عمل روي زمان بندي كاري روزنامه نويسان چيزي نيست كه نيازمند توجه زيادي باشد.
يك نوع كشف اخلاقي ممكن است مجبور شود از قواعدي پيروي كند كه انتظار مي رود سود محلي را زياد كنند. براي مثال، يك شخص، به جاي تحليل همه نتايج اعمال ممكن خود، احتمال دارد بين آنها تنها بر اساس سودهايي كه انجمن محلي اش بدست مي آورد دست به انتخاب بزند. اكتشافي مثل اين ممكن است اگر آشكار شود از نظر جهاني سودمند باشد، براي مثال، يك جمعيت محلي سالم، احتمال بيشتري دارد كه در شکلهای غیر صمیمانه تر اعمال خیریه شرکت کنند. اما يك فاعل اخلاقي مؤثر ممكن است بدون اينكه مجبور باشد این رابطه را به طور واضح چك كند، قادر باشد تا به اين رابطه تكيه كند.
سودگرايي قاعده گرا هم مي تواند به عنوان نوعي رويكرد اكتشافي در نظر گرفته شود. قواعد مي توانند نياز به محاسبه همه نتايج اعمال فردي را دور بزنند، با اين فرض كه به طور ميانگين، سودهاي پيروي از قواعد، مهمتر از هزينه هايی است که در اثر انجام دادن کارهایی که بدون قاعده بهتر انجام می شوند، به وجود می آیند. اما مشكل مهندسي كه AMA را بر اساس سودگرايي قاعده گرا طراحي مي كند آن است كه قواعد از كجا مي آيند. در ابتدا ممكن است قواعد آنهايي باشند كه كارشناسان روي آنها به توافق رسيده اند و آنها را در سيستم برنامه ريزي كرده اند. اما از آنجاييكه توجيه كاربرد اين قواعد خودش يك قاعده سودگراست، (پيروي از قواعد سود كلي بيشتري توليد مي كند تا پيروي نكردن از آنها)، آنها بايد دوباره به صورت نوبتي ارزيابي شوند. گنجايش انجام چنين برآوردي هم ممكن است نيازمند يك AMA خبره باشد. اما در تلاش هاي اوليه براي كاربرد رويكردهاي سودگرايانه قواعد در طراحي AMA ها، ما اين گنجايش هاي خبره را در دست نداریم. با فرض آنكه قواعد قرار است كه در ابتدا توسط كارشناسان تعيين شوند، آنگاه با سودگرايي قاعده گرا مي توان به مثابه نوعي تئوري دستوري برخورد كرد كه در آن صورت مهمترين موضوعات محاسباتي، آنهايي هستند كه با ديگر رويكرد هاي قاعده محور برای طراحي AMA مشترك هستند.
3-2-2 وظیفه گرایی
3-2-2-1-قواعد روبات ها
هيچ بحثي در مورد اخلاقيت از بالا به پايين نمي تواند سه قانون آسیموف را ناديده بگيرد:
1-يك روبات نباید به انسان صدمه بزند يا از طريق تعامل ، موجب شود كه انسان آسيب ببيند.
2-يك روبات بايد از دستوراتي كه توسط انسان به او داده مي شود اطاعت كند مگر زماني كه اين دستورات در تناقض با قانون اول باشند.
3-يك روبات بايد از وجود خودش محافظت كند تا زماني كه اين حفاظت با قانون اول يا دوم در تناقض نباشد.
بعد از آنكه آسیموف سه قانون را بنياد نهاد ، قانون چهارم يا صفرمي را به آن اضافه كرد ( اينگونه ناميده شد زيرا جايگزين سه قانون ديگر شد):
قانون صفرم: يك روبات نباید به انسانيت صدمه بزند، يا،‌ به واسطه سكون خود، موجب شود كه انسانيت آسيب ببيند.
بقيه قوانين به ترتيب اصلاح شده اند تا اين قانون را تصديق كنند.
البته قوانين آسیموف يك افسانه هستند،. با اين وجود آنها يك ايده جالب در مورد AMAها را دربر دارند: اينكه رفتار آنها بايد بيشتر از قواعد عادي اخلاق براي انسان ها، با استانداردهاي متفاوت مطابقت داشته باشد.
ايده آسیموف درباره وظايف اخلاقي خاص براي روبات ها، تضاد مهمي را با رويكرد سودگرايي كه ما در موردش بحث كرديم ايجاد مي كند. در ارزيابي اخلاقي، عموماً نتيجه گراها توجه نمي كنند كه چرا يا توسط چه كسي يك عمل خاص انجام شده است. اما در ديدگاه هاي وظيفه گرايانه، وظايف مستقيماً از ماهيت ويژه فاعل ها منشعب مي شوند، و فاعل های مختلف، ممكن است وظايف مختلف داشته باشند.
در فيلم روبوکاپ، پليس روباتي، با سه دستور عمل برنامه ريزي شده است كه آنها را بيشتر مديون قوانين آسیموف است، اما با این وجود، از وظايف کاملا مشخص شده بيشتر تبعیت می کند: (1)در خدمت اعتماد عمومي باش؛ (2) از بي گناه محفاظت كن؛ و (3) قانون را تأييد کن. نکته خاص موجود در روبوکاپ، وجود يك رهنمود چهارم است كه جايگزين بقيه مي شود، و باعث مي شود كه روبوکاپ، پست تر از اربابان صنفي خود شود، که خود آنها هم جنايتكار هستند. در فيلم اصلي، بخش انساني باقيمانده از روبوکاپ قادر است تا بر اين رهنمود چهارم غلبه كند، اما اين امر براي روباتي كه برنامه ريزي شده تا به طور جدي از قواعد پيروي كند ممكن نيست.
سه قانون آسیموف، ابزاری را براي كشف مشكلات ذاتي او و ديگر نويسندگان داستانهاي علمي تخيلي، در شكل ساده اي از اخلاق وظيفه محور فراهم كرد. آسیموف، هيچ تحليل مستقيمي از اين قوانين را ارائه نكرد. بلكه زيست پذيري آنها را از طريق يك سري داستانهايي كه او در سرتاسر زندگي اش نوشت، كشف كرد. در ابتدا، به نظر مي رسد كه قواعد خيلي سر راست هستند. اما براي آسیموف و نسل هاي بعدي، بديهي بود كه حتي اين قواعد ساده در اجرا مشكل ساز خواهند بود. براي هر اصل اخلاقي، سبك و سنگين كردن هاي اخلاقي وجود دارد.
براي مثال “آيا روباتي كه قوه تخيل ندارد مانع صحبت کردن يك جراح را درباره بريدن بدن يك بيمار خواهد شد”؟ اطمينان حاصل كردن از اين امر كه يك روبات مي فهمد كه جراح با بكار بردن چاقو روي بدن بيمار قرار نيست كه به بيمار صدمه اي وارد كند، امر ساده اي نخواهد بود. كاربرد كاملاً هوشمندانه از يك اخلاق وظيفه محور ساده، نيازمند فهم بالايي است درباره زمينه و استثناها در قواعدي كه منجر به هيچ صدمه اي نمي شوند. يك AMA با چنين ظرفيت هايي پايگاه اطلاعاتي بزرگي را نياز دارد تا قواعد را به درستي درزمينه هاي مختلف به كار گيرد و اين پايگاه اطلاعاتي لازم است كه به طور منظم به روز شود.
اگر هر دسته از اعمال، موجب صدمه انسان شوند، يك روبات چه كاري بايد انجام دهد؟ در كتاب دروغگو، آسیموف داستاني از “هربای”380 مي گويد، روباتي كه به روانشناسي انسان حساس است و زماني كه چالشي را ملاحظه مي كند كه در آن همه انتخاب ها منجر به درد رواني در انسان مي شوند، در هم مي شكند. البته انسان ها به طور روزانه با چنين مشكلاتي روبرو مي شوند. (يا اگر به نتایج اعمالشان فكر مي كردند، در هم مي شكستند!) در اصل، اين حقيقت كه هربای به جاي آسيب زدن به انسان، درهم مي شكند ممكن است يك حفاظ دروني به نظر بيايد. اما به آساني مي توان موقعيتي را تصور كرد كه در آن يك شخص مسن در راه بازگشت به خانه وابسته به يك روبات است و در هم شكستن سيستم روباتيك موجب آسيب بزرگتري مي شود.
در مورد مداخله ناخواسته در جراحي، اگر ليست مفروض داده ها نتوانند فراگير باشند، AMA در موقعيت هاي ناشناخته موفق نخواهد بود. در متن جهان واقعي، از قرار معلوم قواعد سر راست هم مي توانند به گونه اي باشند كه پيروي از آنها غير ممكن باشد. بدون هيچ تدبيري براي در اولويت قرار دادن قواعد، تعارض بين آنها مي تواند موجب به بن بست رسيدن شود. آسیموف، قواعدش را در اولويت قرار مي دهد تا تعارضات بين آنها را به حداقل برساند اما حتي قواعد واحد هم مي توانند منجر به بن بست شوند، به عنوان مثال، زماني كه دو انسان دستورات متناقض مي دهند يا عملي كه توسط روبات انجام مي شود ( به انضمام سكون) و موجب آسيب به شخص خواهد شد. باید نگهداری روبات هایی را كه هنگامي كه عملي منجر به صدمه به انسان مي شود انتخاب مي كنند كه آن عمل را انجام دهند يا ندهند، متوقف کرد، اما مطمئناً براي جهان واقعي AMA ها، این کار قابل توصيه نيست. با فرض آنكه در جهان واقعي هميشه ممكن نيست بتوان از صومه جلوگيري كرد، كاهش صدمه بهترين روشي است كه مي توان در بسياري از موقعيت ها به آن اميدوار بود.
قواعد آسیموف، كمترين موانعي هستند كه ممكن است يك فرد بخواهد در ماشين هاي برده آنها را اجرا كند، نه يك اخلاق كامل براي ذهن هاي مصنوعي همراه با استعداد عمل با اقتدار قابل ملاحظه. بسياري از كدهاي اخلاقي جهان واقعی كه ممكن است فرد بخواهد آنها را در يك سيستم محاسباتي اجرا كند، همه قواعد را در اولويت قرار نمي دهند و بنابراين بين آنها تعارض ایجاد می شود. هر AMA قاعده محوري نيازمند يك ساختار نرم افزاري خواهد بود كه بتواند موقعيت هايي را مديريت كند كه در آنها قواعد باهم تعارض دارند. مشاور IT، “راجر کلارک”381، در بازنگري درسهايي كه مي توان از داستانهاي آسیموف گرفت پيشنهاد مي كند كه يك مهندس ممكن است به خوبي نتيجه بگيرد كه قواعد يا قوانين، يك استراتژي طراحي مؤثر براي ساخت روبات هايي كه رفتارشان بايد اخلاقي باشد، نيستند.
توافق بر سر اينكه يك فاعل اخلاقي كاملاً خودمختار نبايد زماني كه با يك معماي اخلاقي مواجه مي شود، گير كند، خيلي بدیهی است. اما آيا همه موافقند كه براي حل معما يك AMA ممكن است گره كور را باز كند و احتمالاً به انسان صدمه بزند؟ گاهي اوقات قواعد، از جمله فرآيندهاي تصميم گيري دموكراتيك، بايد شكسته شوند. و برخي سيستم هاي اخلاقي عدم اطاعت از قواعد را مجاز مي دانند-گويي كه آنها فقط قيود بديهي اعمال هستند. در رويكردهای قاعده محور برای اینکه بگذاريم يك AMA آزادي عمل سرپيچي از قاعده را داشته باشد، لازم است كه معيار كاملاً صريحي را براي زماني كه مي خواهيم اين كار را انجام دهد، تنظيم كنيم. اما هر معياري از اين دست، احتمال زيادي دارد كه معماهاي ديگري ايجاد كنند. ضربه زدن به بادكنك باعث مي شود كه در جاي ديگري متورم شود.
با اين وجود، قواعد

پایان نامه
Previous Entries دانلود پایان نامه درباره ممكن، اخلاقي، موقعيت، آينده Next Entries دانلود پایان نامه درباره گروه های اجتماعی، سلسله مراتب، روح قانون