دانلود پایان نامه درباره خودمختاری، اخلاق کار، ارزش های اخلاقی، ارزشهای شخصی

دانلود پایان نامه ارشد

خود اصول و ارزشهای اخلاقی را نهادینه می کنند تا این ابزارها به عنوان یک فاعل، (نه به شکل تام آن) اخلاقی عمل کنند. در کد اخلاق جامعه ملی مهندسان حرفه ای(NSPE)272، اولین “حکم اساسی” آن است که مهندسان باید “امنیت، سلامت و سعادت عمومی را حفظ کنند.”273 اگر استانداردهای اخلاقی این ماشین ها سعادت و امنیت عمومی را افزایش می دهد، آنگاه مهندسان آمریکایی با کد اخلاقی شخصی خود موظفند کاری کنند که این اتفاق بیفتد.آنها از کجا باید شروع کنند؟

2-4-1-اخلاق وابسته به نوع استفاده از شیء– اخلاق کارکردی
در اینجا والاچ و آلن، چارچوبی را برای فهم جریان هایی از تکنولوژی های رایج تا AMA های خبره فراهم کرده اند. چارچوب آنها دوبعد دارد:”خودمختاری و حساسیت نسبت به ارزشها.”274این ابعاد، مستقل هستند. خودمختاری توسعه یافته همیشه توسط حساسیت توسعه یافته نسبت به ارزشهای دیگران، متعادل نمی شود؛ این موضوع همانگونه که در مورد نوجوانان صحیح است در مورد تکنولوژی هم صدق می کند.
ساده ترین ابزارها نه خودمختاری دارند و نه حساسیت. چکش ها نه خودشان برمی خیزند و میخها را می کوبند و نه نسبت به شست هایی که در حال کار با چکش هستند حساسیت دارند. اما حتی تکنولوژی هایی که به پایین ترین سطح هر دو بعد نزدیک هستند در این چارچوب می توانند نوعی از “اخلاق وابسته به نوع استفاده از شیء” را نسبت به طراحی خود داشته باشند. تفنگی که مکانیسم امنیتی ضد کودک را دارد خودمختاری و حساسیت ندارد، اما طراحی اش ارزش هایی را در بر می گیرد که کدهای اخلاقی NSPE آنها را تأیید می کنند. یکی از فضایل اصلی در رشته “اخلاق مهندسی” در 25 سال گذشته، افزایش هوشیاری مهندسان نسبت به نوع تأثیر ارزشهای شخصی آنها در فرآیند طراحی و حساسیت آنها نسبت به ارزشهای دیگران در طول فرآیند طراحی است. وقتی فرآیند طراحی متعهد به ارزش های اخلاقی می شود، این نوع از “اخلاق وابسته به نوع اتفاده از شیء”275 کاملاً تحت کنترل طراحان و استفاده کنندگان از تجهیزات است.
در منتها الیه دیگر، سیستم هایی با خودمختاری و حساسیت بالا نسبت به ارزش ها وجود دارند که قادرند مثل یک فاعل اخلاقی قابل اعتماد عمل کنند. بین این دو نوع اخلاق، سلسله مراتبی از “اخلاق کارکردی”276 وجود دارد-از سیستم هایی که صرفاً طبق استانداردهای رفتاری قابل پذیرش عمل می کنند گرفته تا سیستم های هوشمندی که قادرند برخی از جنبه های اخلاقی مهم اعمال خود را تعیین کنند.
حوزه اخلاق کارکردی، هم سیستم هایی را در بر دارد که خودمختاری قابل توجهی دارند اما حساسیت اخلاقی کمی دارند و هم آنهایی را که از میزان خودمختاری پایینی برخوردارند اما حساسیت اخلاقی بالایی دارند. خلبانان اتوماتیک نمونه ای از سیستم های نوع اول هستند. مردم در پروازهای هواپیماها، در شرایط گوناگون به آنها اعتماد می کنند و کمترین میزان نظارت انسانی در آنها وجود دارد. آنها نسبتاً ایمن هستند و به گونه ای مهندسی شده اند که به ارزشها احترام بگذارند، مثلاً به آرامش مسافران هنگام اجرای مانورها احترام بگذارند. اما اهداف امنیت و آرامش به روشهای متفاوتی به دست می آیند. امنیت بوسیله کنترل مستقیم ارتفاع هواپیما وشرایط محیطی و تنظیم مداوم بالها و دیگر سطوح کنترلی برای حفظ مسیر دلخواه، بدست می آید. آرامش مسافر به طور مستقیم کنترل نمی شود و تا آنجایی که تمهیدات آن را اندیشیده اند، محدودیت های مانوری خاصی را در پارامترهای اجرایی خلبان اتوماتیک از قبل کد گذاری می کنند. هواپیما قادر است هنگام بلند شدن خیلی شیب دارتر از زمانی عمل کند که در حال انجام یک چرخش است، اما خلبان اتوماتیک به گونه ای برنامه ریزی شده است که آنقدر تیز نچرخد که مسافران را ناراحت کند. در شرایط عادی، طراحی خلبان اتوماتیک اجازه می دهد که این خلبان در حدود اخلاقیت کارکردی عمل کند. در شرایط غیر عادی، یک انسان خلبان که از نیازهای خاص مسافران آگاه است، برای مثال یک مسافر بیمار یا خواسته های خاص یک مسافر، مثل کسانی که در جستجوی یک سفر تفریحی هیجان انگیز هستند، می تواند پرواز خود را طبق آن نیازها تنظیم کند.

شکل1-2: ابعاد لازم برای توسعه فاعل های اخلاقی مصنوعی
مقدار قابل توجهی خودمختاری، بدون هیچ گونه حساسیت اخلاقی خاص، خلبانان اتوماتیک را در جایی بالای محور، سمت چپ شکل قرار می دهد. روبات های امروزی در مرحله ای قرار دارند که میزان خودمختاری و حساسیت اخلاقی در آنها بسیار پایین است. اما با رشد روزافزون در این دو جنبه، شاهد خلق اشیائی هستیم که دارای “اخلاق وابسته به نوع استفاده” در آنها وجود دارد و سپس موجوداتی با اخلاق کارکردی ایجاد خواهند شد و دیری نخواهد پایید که دنیا شاهد ظهور فاعل های کاملاً اخلاقی خواهد بود.
یک نمونه از سیستم هایی که خودمختاری کمی دارند اما از درجه ای از حساسیت اخلاقی برخوردارند، سیستم اخلاقی پشتیبان تصمیم گیری است که تصمیم گیرندگان را قادر می سازد تا به اطلاعات اخلاقی مربوط دسترسی داشته باشند .بیشتر این سیستم ها، در حوزه اخلاق وابسته به نوع استفاده از اشیاء قرار دارند تا حوزه اخلاق کارکردی. به علاوه معمولاً زمانی با موضوعات اخلاقی سر و کار دارند که اهداف آموزشی دارند. ساختار برنامه ها به گونه ای است که اصول کلی را آموزش بدهد نه اینکه موارد جدید را تحلیل کند. مثل نرم افزاری که با دانش آموزان موارد تاریخی یا نظری مهم را تمرین می کند. اما برخی از برنامه ها به پزشکان کمک می کنند تا اعمالی را انتخاب کنند که از نظر اخلاقی مناسب هستند، مثل MedEthEx، یک سیستم کارشناس اخلاق پزشکی طراحی شده توسط یک تیم زن و شوهر متشکل از یک دانشمند کامپیوتر، مایکل اندرسون277 ویک فیلسوف، سوزان اندرسون278 . درعمل، MedEthEx در برخی از استدلال های اخلاقی اولیه حضور دارد.
فرض کنید شما دکتری هستید که با یک بیماری مواجه هستید که از نظر روحی سالم است ولی معالجه ای که شما فکر می کنید نشان دهنده بیشترین میزان امید برای نجات است را رد می کند. آیا شما باید برای متقاعد کردن او دوباره تلاش کنید (تخطی احتمالی از احترام به خودمختاری بیمار)، یا باید تصمیم او را بپذیرید (تخطی احتمالی از وظیفه خود نسبت به فراهم کردن کارآمدترین معالجه)؟ اصل ماده MedEthEx فرد معالج را وا می دارد تا در این مورد به مجموعه ای از سؤالات پاسخ دهد. سپس بر اساس مدل قضاوت کارشناسانه که از موارد مشابه یاد گرفته است، ایده ای را درباره روش اخلاقی مناسب برای اقدام به عمل، دریافت می کند. سیستم اندرسون هیچ خودمختاری ای ندارد و یک AMA کاملاً توسعه یافته نیست اما نوعی از اخلاقیت کارکردی را دارد که سکویی را برای توسعه بیشتر فراهم می کند.
مهم است بدانیم که این نمونه ها تنها نمونه های تشریحی هستند. در شکل 1 فاصله هر سیستم با محورها کم است. خلبانان خودمختار تنها در حوزه های بسیار مشخصی خودمختاری دارند. خلبان خودمختار نمی تواند کابین خلبان را ترک کند تا یک مسافر پریشان را آرام کند. MedEthEx تنها در محدوده خیلی کوچکی از سوژه ها، توصیه ای ارائه می کند. نرم افزار تهیه اطلاعات مربوط به سوژه هایش، کاملاً وابسته به انسان است و پزشکان باید تصمیم بگیرند که آیا از این توصیه ها پیروی کنند یا نه. با این وجود، موضوعات اخلاقی حتی در این حوزه های محدود شده هم مطرح می شوند و بخش مهندسی اخلاق ماشین بر چنین ابتدا و اساسی ساخته خواهد شد.
این قدم های مستقل در هر بعدی مربوط به اخلاق ماشین می شوند و بنابراین تلاشهایی هستند تا به طور همزمان در هر دو بعد پیشرفت ایجاد کنند. یکی از این پروژه ها کیسمت279 بود، روباتی که توسط دانشجویان فارغ التحصیل شده از ام آی تی تحت نظارت رادنی بروکس280، ساخته شد. کیسمت تلاش می کند تا واکنش عاطفی را با فعالیت اتوماتیک در یک روبات ترکیب کند. سر روباتیک کیسمت، شکل های کارتونی دارد که نوعاً به نوزادان و حیوانات جوان مربوط است. با حرکت دادن سر، گوشها، ابروها، پلک ها و دهانش قادر است تا هشت حالت عاطفی را نشان دهد، از جمله ترس، شگفت زدگی، علاقه و ناراحتی. همینطور چشمانش را می بندد و به حالتی مثل خواب آلودگی فرو می رود. حالت عاطفی واقعی ای که روبات نشان می دهد، بوسیله تحلیلش از زیر و بمی صدای گوینده و عوامل دیگری تعیین می شود، از جمله اینکه آیا سیستم در جستجوی انگیزه است یا کاملاً برانگیخته شده است. کیسمت می تواند برگردد و با دقت نگاه کند و توجهش را روی نقطه ای تنظیم کند که فرد به آن اشاره دارد.
کیسمت به گونه ای برنامه ریزی شده که سر خود را ب سمت صدا می چرخاند، به شکلی که گویی در چیزی شبیه یک مکالمه، حضور دارد و قبل از آنکه در پاسخ به صحبت انسان صدایی از خود بروز دهد، منتظر یک فضای ساکت است. در حالیکه زبان آشکاری که کیسمت با آن صحبت می کند، نامفهوم است، او می تواند نسبت به علائم اجتماعی کاملاً پاسخگو باشد – برای مثال تن صدای سخنگویی که روبات با او در تعامل است- اگرچه سیستم هیچ درک واقعی ای از تفکرات یا گفته های انسان ها ندارد، برای مثال در تن صداهایی که ممکن است حالت سرزنش از آنها استنباط شود، روبات با حالتی کاملاً شرمگینانه، به سمت پایین نگاه می کند.
کیسمت که اکنون بازنشسته شده و در موزه ام آی تی نمایش داده می شود، طراحی شده بود تا علائم اجتماعی خیلی اساسی را تشخیص دهد و با رفتار ساده خود، واکنش نشان دهد. در بین تواناییهای کیسمت عکس العمل هایی نسبت به توجه و نزدیکی به انسان وجود دارد. مثلاً کیسمت ممکن است زمانی که فردی خیلی نزدیک به او تکیه می دهد، او را به عقب هل دهد. میزانی که در مورد نزدیک بودن به صورت افراد برای انسان پذیرفتنی است، شاید بیشتر به آداب معاشرت مربوط باشد تا اخلاق و در فرهنگ های مختلف متفاوت است. با این وجود، اعمال کیسمت نمونه ای از “اخلاق وابسته به نوع استفاده از اشیاء” هستند، زیرا برنامه های آن به ارزشهایی وابسته است که برای ایجاد اعتماد و همکاری مهم هستند. کیسمت هیچ نمایش دقیقی از ارزشها ندارد و هیچ ظرفیتی برای استدلال درباره ارزشها هم ندارد.
قرار دادن کیسمت در حوزه “اخلاق وابسته به نوع استفاده از اشیاء”، در بحث ما خللی ایجاد نمی کند. رشته اخلاق مصنوعی باید روی سکوهای موجود بنا شود، و کیسمت نتیجه برخی نظریات مهم درباره آن است که ماشین ها را چگونه بسازیم که به گونه ای رفتار کنند که خوشایند مردم باشند. کیسمت به عنوان یک تجربه در علم روباتیک اجتماعی در نمایش اینکه چگونه برای یک روبات ممکن است که واکنش های اجتماعی طبیعی و شهودی را در انسان ها فعال کند، بسیار موفق بود.
خلبانان خودمختار، سیستم های پشتیبان تصمیم گیری، و روباتها یی که برای انجام تعاملات مملو از احساس دارای ظرفیت اساسی هستند، همگی نقاط آغازینی را برای رشته اخلاق مصنوعی فراهم می کنند. سیستم هایی مثل اینها، که در حوزه اخلاق وابسته به نوع استفاده از اشیاء یا اخلاق کارکردی خیلی محدود قرار دارند، تقریباً توسعه مستقیم ارزشهای طراحان خود هستند. طراحان مجبورند که بیشتر شرایطی را که در آن شرایط سیستم هایشان کار می کنند، و اعمال قابل دسترسی را که در آن شرایط در حصار محدودیتهای سخت نگهداری می شوند را پیش بینی کنند. مقررات ایمنی نوشته شده روی سیستم ها تلاش می کند تا مشکل استفاده اخلاقی، ایمن و مناسب را برای کاربران برآورده کند، اما آنها همیشه در این امر موفق نیستند! همانطور که تکنولوژی برای تصمیم گیری خودمختار گسترده تر می شود، ما با روبات شناسانی مواجه می شویم که درک می کنند که کدهای حرفه ای شخصی آنها توسعه AMAها را یک امر مهندسی می دانند.
2-4-2 چگونه می توان حساسیت نسبت به ارزش های اخلاقی را در فاعل های مصنوعی به وجودآورد؟
با این مثال ها، ما تلاش کرده ایم تا نشان دهیم که تکنولوژیهای موجود نقطه شروع های متنوعی را برای پیشرفت AMA ها فراهم می کنند. دیدن پیشرفت افزایشی، اغلب سخت و پیش بینی آن مشکل است. حتی در چارچوب دو بعدی بسیار ساده، مسیرهای چندگانه ای ازسمت تکنولوژیهای جاری به سمت فاعل کاملاً

پایان نامه
Previous Entries دانلود پایان نامه درباره اراده آزاد، مسئولیت پذیری، میزان سازگاری، حقوق انسانی Next Entries دانلود پایان نامه درباره خودمختاری، علوم کامپیوتری، هوش مصنوعی، ژن درمانی