دانلود پایان نامه درباره توانایی ها، ارزش اخلاقی، انرژی هسته ای، بهداشت و سلامت

دانلود پایان نامه ارشد

کنند.
1-6-3 آینده
در آینده هیچ چیزی در زندگی خالی از خطر نیست. حتی کتابداران بخاطر عوامل یا خطرهای مربط به کار، می میرند. امریکاییها و اروپائیها اغلب این توهم را دارند که می توانند خطرها را کاهش دهند تا آنجا که به صفر برسند. عموم مردم به طور ویژه با امکان وقایع فاجعه آمیز موافق هستند. در تحقیقی که در سال 1987 منتشر شد، امریکائیها در لیستی که شامل 30 نوع فعالیت یا تکنولوژی بود، از جمله سیگار کشیدن، سم های کشنده حشرات، اشعه های x و آنتی بیوتیک ها، انرژی هسته ای را بعنوان خطرناک ترین قدرت برآورد کردند. کسانی که به طور حرفه ای خطرات را ارزیابی می کنند- که اغلب از معیارهای سنجش هوش، که این معیارها روی نرخ های مرگ ومیر تأکید دارند، استفاده می کنند- در مقایسه با عموم مردم، انرژی هسته ای را ایمن تر می دانستند (در رده بیستم لیست). عمل جراحی، که حرفه ای ها آن را بعنوان خطری بزرگ برآورد کردند (5)، توسط مردم در رده دهم ارزیابی قرار گرفته است. این تفاوتها به معنای آن نیست که حرفه ای ها درست می گویند و مردم در اشتباهند. بلکه عوامل متفاوت می تواند روی تشخیص خطر تأثیر بگذارد.
“لوکینگ”241 می گوید که در پیشینه این برآوردها، سناریوی افسانه های علمی وجود دارند که معتقدند که سیستم های AI در نهایت منتج به مخلوقاتی می شوند که خواهان حذف انسانیت خواهند بود. آیا مهندسان در حال قدم گذاشتن بر سراشیبی لغزنده ای هستند که منجر به انقراض اجتناب ناپذیر گونه های انسانی می شود؟ انقراض انسانیت در دستان روباتها اجتناب ناپذیر نیست، اگر این سیستم ها بتوانند بوجود، آنگاه ممکن است محدودیت های اخلاقی مناسبی را در این سیستم ها اعمال کنیم تا امکان نابودی انسان را حذف کنیم.
موضوعات اجتماعی مطرح شده، نگرانیهای مهمی هستد که در توسعه AI وجود دارند. اما بسیار مشکل است که بتوانیم بگوییم که هر کدام از این نگرانیها منجر به این می شوند که انسان باید ساختن سیستم های AI را که تصمیم می گیرند یا خودمختاری نشان می دهند را متوقف کند. مشخص نیست که چه استدلال ها یا شواهدی از چنین نتیجه ای حمایت می کنند. در سال 1999 در گزارشی که توسط سازمان جهانی سلامت منتشر شد، سوانح رانندگی مهمترین عامل مرگهای همراه با جراحت افراد پانزده تا چهل و چهار ساله بودند. تصادفات وسایل نقلیه موتوری، علت مرگ 694/160/1 نفر در سراسر جهان در سال 1998 بوده اند. این عدد مرگ هایی را که بطور غیر مستقیم مربوط به اتومبیل ها هستد، از جمله آلودگی هوا (مثلاً بیماری های تنفسی) و گرم شدن جهانی (مثل سرطان پوست و مرگ های مربوط به تغییرات ناگهانی هوا) رادر بر نمی گیرد. اگرمردم می دانستند که اتومبیل ها چقدر مخرب خواهند بود، آیا توسعه دادن شکل مطلوب حمل و نقل را متوقف می کردند؟ احتمالاً نه. بیشتر مردم معتقدند فواید اتومبیل ها مهمتر از قوه مخرب آنهاست.
ما با قوه مخرب سیستم های AI سرو کار داریم. قوه ای که علاقه به فعال کردن رشته اخلاق مصنوعی را بر می انگیزد. ما هیچ دلیلی نمی بینیم که تنها به خاطر موضوعاتی که اخیراً بوسیله منتقدان اجتماعی آینده نگر مطرح شده اند، تحقیقات خود را متوقف کنیم. اما معتقدیم که اکنون فرصتهایی داریم برای ارزیابی دوباره آنکه آیا خطرات توسعه AI مهمتر از فواید آن است یا نه، و در آینده هم چنین فرصتهایی خواهیم داشت. در همین زمان توسعه AMAها، چگونگی کنترل خطرات مطرح شده توسط سیستم های خودمختار را تشریح می کنند.

فصل دوم

فاعل های مصنوعی اخلاقی

2-فاعل های مصنوعی اخلاقی (AMA242)

در چند دهه گذشته روبات ها بخشی از محیط کاری ما بوده اند، اما امروزه دیگر آنها محدود به اتوماسیون کارخانه ای نیستند. آنها در بخشهای دیگر هم بکار گرفته می شوند. هم اکنون روبات ها محدوده گسترده ای از فعالیت های حرفه ای را خودکار می کنند، مثل انواع مختلف صنعت، بهداشت و سلامت، دفتر کار، عملیات های جستجو و نجات، مبارزات خودکار و صنایع خدماتی.
بکارگیری آنها در اتوماسیون منزل هم در حال گسترده شدن است و روبات های جاروبرقی و اسباب بازی ها در سرتاسر جهان شایع تر می شوند. همانطور که حضور و توانایی این ماشین ها بیشتر می شود، این امر اجتناب ناپذیر است که آنها از نظر اخلاقی بر زندگی ما تأثیرگذار خواهند بود، همانطور که از نظر فلسفی و عاطفی هم تأثیر خواهند داشت.

2-1 اخلاق و تعاملات انسان – روبات
همانطور که تکنولوژی روباتیک همه گیرتر می شود، حوزه تعاملات انسان- روبات هم رشد خواهد کرد. در حال حاضر این تعاملات، با تعاملاتی که ممکن است انسان با هر نوعی از تکنولوژی داشته باشد فرقی ندارد، اما همانطور که این ماشین ها تعاملی تر می شوند، آنها در موقعیت هایی قرار خواهند گرفت که در این موقعیت ها یک شخصیت اخلاقی وجود دارد، و تعامل ما با این شخصیت ممکن است شبیه تعاملاتی باشد که با حیوانات با احساس دیگر داریم. به علاوه انسانها دوست دارند که برای روبات ها شخصیت انسانی قائل شوند و این موضوع به سرعت تکنولوژی روباتیک را وارد موقعیت هایی می کند که در آن موقعیت ها اگر فاعل، یک انسان باشد و نه یک روبات، آن موقعیت به عنوان موقعیت اخلاقی ملاحظه می شود. یک پرستار زمانی که از بیمار خود مراقبت می کند وظایف اخلاقی خاص و حقوق خاص خود را دارد. آیا اگر به جای یک انسان، یک روبات پرستار باشد، این حقوق و وظایف به روبات منتقل خواهد شد؟

2-2 آیا ماشین ها می توانند موقعیت اخلاقی خلق کنند؟
ما در جواب این سؤال سه پاسخ ممکن داریم:
1- اول آن که بگوییم موقعیت اخلاقی تنها یک توهم است. ما به اشتباه حقوق و مسئولیت های اخلاقی را به ماشین نسبت می دهیم و به خاطر ظاهر انسانی روبات و یا برنامه ریزی هوشمندانه ماشین در قضاوت خود دچار خطا شده ایم.
2- دومین گزینه آن است که این موقعیت، یک حالت اخلاقی ساختگی است. یعنی تا حدی اخلاقی است اما فاعل های روباتی که در موقعیت حضور دارند، چیزی که آنها را تبدیل به فاعل اخلاقی کامل بکند را کم دارند.
3- و بالأخره گزینه سوم آن است که گرچه ممکن است این موقعیت ها خیلی جدید باشند، اما با این وجود آنها موقعیت های اخلاقی واقعی هستند که باید جدی گرفته شوند.
در اینجا ما حالت سوم را قبول داریم و معتقدیم که تکنولوژی می تواند موقعیت های اخلاقی واقعی خلق کند و برای ادعای خود هم براهینی داریم:

2-2-1 براهین پیرامون خلق موقعیت اخلاقی واقعی توسط تکنولوژی:
برای روشن کردن این موضوع لازم است چگونگی تعامل متخصصان اخلاق با اخلاق استفاده از تکنولوژی و طراحی آن را بررسی کنیم. رایج ترین طرح تکنولوژیکی، مدل استاندارد “کاربر-ابزار-قربانی”243 است. در اینجا تکنولوژی، در موقعیت اخلاقی بین کاربری که از تکنولوژی استفاده می کند و قربانی، دخالت می کند. در اینجا، وقتی فرد از وسیله و یا سیستم فنی ای استفاده می کند که موجب آسیب می شود، ما صرفاً کاربر را سرزنش می کنیم و نه وسیله را. حال اگر یک روبات یا یک سیستم هوشمند صرفاً یک وسیله باشد، در این صورت اخلاق موقعیت تنها شامل کاربران و یا طراحان روبات می شود. اگر ما این استدلال را دنبال کنیم، دیگر یک روبات، فاعل اخلاقی نیست، و در بهترین حالت آن روبات فقط وسیله ای است که علایق اخلاقی دیگران را ارتقاء می دهد.
اما این مفهوم از تأثیر تکنولوژی روی استدلال اخلاقی ما، بسیار ناقص است. ما از سالها قبل با تکنولوژی ای روبرو بودیم که بیشتر شبیه چیزی است که روباتهای امروزی در تلاش برای خلق آن هستند، یعنی تکنولوژی استفاده از حیوانات اهلی. هزاران سال است که انسانها، سگ ها را برای استفاده های خود پرورش می دهند. اگر ما تکنولوژی را به عنوان دستکاری طبیعت در نظر بگیریم، به راحتی می توانیم سگ های اهلی را یک تکنولوژی بنامیم. این تکنولوژی به صورت طبیعی باهوش است و احتمالاً از نوعی آگاهی هم برخوردار است. به علاوه سگ ها می توانند آموزش هم ببینند تا دستورات ما را انجام دهند و در این حالت، سگ ها بیشتر شبیه روبات هایی هستند که ما در حال تلاش برای خلقشان هستیم. در این برهان بهتر است نگاهی بیندازیم به نمونه سگ های راهنما، که برای کمک به افراد نابینا پرورش داده می شوند. این تکنولوژی (تکنولوژی سگ های راهنما)، به راحتی با مدل استاندارد ما مطابقت نمی کند. ما در اینجا رابطه پیچیده ای بین مربی، سگ راهنما و فرد نابینایی که سگ برای کمک به او آموزش دیده است داریم. در این رابطه چه کسی شایسته ستایش است؟ به نظر می رسد که هم مربی و هم سگ شایسته آن باشند. ما مهارت و فداکاری مربیان را می ستاییم، و به همین ترتیب اعمال سگ هم قابل ستایش هستند. در اینجا یک وابستگی عاطفی مهم بین تمام فاعل ها شکل گرفته است، اما وابستگی دو فاعل انسانی نسبت به سگ قوی تر است و ما تمایل داریم روابط ایجاد شده توسط این حیوان را با همان عباراتی توصیف کنیم که روابط انسانی را با آنها توصیف می کنیم.
وب سایت “سگ های راهنما” برای افراد نابینا از طرف انجمن دامپزشکی امریکا، رابطه انسان و حیوان را اینگونه توصیف می کند:

” ارتباط انسان – حیوان، به طور متقابل رابطه ای سودمند و پویا بین مردم و حیوانات دیگراست که تحت تأثیر رفتارهایی است که برای سلامتی و سعادت هر دو ضروری هستند، این شامل تعاملات عاطفی، روان شناسانه و فیزیکی مردم، حیوانات و محیط می شود، اما فقط به آن محدود نمی شود.”244
قطعاً تربیت سگ های راهنما برای کمک به افراد کم بینا قابل ستایش است، اما آیا خود سگ ها هم از نظر اخلاقی شایان ستایش هستند؟ البته همینطور است. برای باور این موضوع دو راه معقول وجود دارد: یک راه آن است که باور داشته باشیم که اشیائی که کارکرد خود را به خوبی انجام می دهند از ارزش اخلاقی مساوی با ارزش اخلاقی اعمالی که انجام می دهند، برخوردارند. راه دوم آن است که استدلال کنیم حیوانات خواسته های شخصی، آرزوها، و تمایلات خود را دارند و این استقلال اگرچه به اندازه استقلال انسان ها نیست، اما با این وجود آنقدر پیشرفت کرده است که به سگ ها این قدرت را بدهد که مدعی حقوق اخلاقی و احتمالاً کمی مسئولیت اخلاقی هم باشند. اکنون سؤال این است که آیا روبات به درستی یک وسیله در نظر گرفته شده است و یا نه، چیزی بیشتر از یک وسیله است، مثل تکنولوژی ای که درمورد سگ های راهنما توضیح داده شد.
البته پاسخ این سؤال آسان نیست. هیچ روباتی در جهان واقعی یا در آینده نزدیک به اندازه یک سگ راهنما باهوش و حساس نخواهد بود. اما حتی در کمترین توانایی هایی که روباتهای امروزی دارند، وجه اشتراکاتی با توانایی های سگ های راهنما وجود دارد، نه با توانایی های یک چکش.
در تکنولوژی روباتیک، مدل اخلاقی استاندارد بین فاعل ها اینگونه است:
برنامه ریز روبات کاربر
در اینجا تمایز بین طبیعت کاربر و طبیعت وسیله کاملاً می تواند محو شود تا آنجا که آنطور که فیلسوف تکنولوژی “کال میچمن”245، استدلال می کند، ” هستی شناسی مصنوعات در نهایت قادر نخواهد بود تا از فلسفه طبیعت جدا شود.”246و ما در نهایت مجبور خواهیم بود تا درباره تکنولوژی به همان شکلی فکر کنیم که درباره طبیعت فکر می کنیم.
برای روشن شدن روابط اخلاقی بین فاعل های طبیعی و مصنوعی اولین قدم آن است که بین شاخه های مختلف تکنولوژی تمایز قائل شویم. مطلب مهم آن است که دو نوع تکنولوژی روباتیک وجود دارد که باید از هم جدا شوند تا نسبت دادن فاعلیت اخلاقی به روبات ها معنا پیدا کند.

2-2-1-1-تله روبات ها247
ما تله روبات ها ،و روبات های خودمختار داریم. هر کدام از این تکنولوژیها با فاعلیت اخلاقی رابطه متفاوتی دارند. تله روبات ها ماشین هایی هستند که از راه دور کنترل می شوند و به صورت اتوماتیک، تنها می توانند تصمیمات کوچکی بگیرند. احتمالاً، این موفق ترین شاخه روباتیک در این زمان است، زیرا آنها برای حرکت نیازمند هوش مصنوعی پیچیده نیستند و اپراتور آنها، برای ماشین هوش را فراهم می کند. مارس روور های248 ناسا به این

پایان نامه
Previous Entries دانلود پایان نامه درباره بیمارستان، حریم خصوصی، خودمختاری، سیستم پشتیبان تصمیم Next Entries دانلود پایان نامه درباره اراده آزاد، مسئولیت پذیری، میزان سازگاری، حقوق انسانی