دانلود پایان نامه درباره اراده آزاد، مسئولیت پذیری، میزان سازگاری، حقوق انسانی

دانلود پایان نامه ارشد

صورت کنترل می شوند، آنها روبات های جستجوگر در اعماق دریا هستند. عمل جراحی تله روباتیک به زودی تبدیل به یک واقعیت خواهد شد، همانطور که پرستارهای تله روباتیک هم تبدیل به یک واقعیت می شوند. این ماشین ها به طور واضح در موقعیت هایی که بار اخلاقی دارند به کار گرفته می شوند و مدل ارتباط بین آنها به این صورت است:
کاربر روبات قربانی
تحلیل اخلاقی تله روباتها شبیه تحلیل سیستم هایی است که در آنها ستایش و سرزنش به طراحان، برنامه ریزان و کاربران آنها تعلق می گیرد. از آنجایی که انسان ها در تمام تصمیمات مهمی که این ماشین ها می گیرند حضور دارند، استدلال اخلاقی را هم آنها برای ماشین ها فراهم می کنند.
2-2-1-2- روبات های خودمختار249
اما در آینده نه چندان دور شاهد ظهور روبات های خودمختار خواهیم بود که قدرت خلق استدلال اخلاقی خواهند داشت و همانطور که تکنولوژی سگ های راهنما شایسته ستایش و سرزنش هستند، این روبات ها هم دارای حقوق اخلاقی و کمی مسئولیت اخلاقی خواهند بود. مؤلفه اصلی در ساخت و طراحی این روبات های خودمختار آن است که آنها داری استقلال هستند و بدون نیاز به برنامه ریز و یا کاربر تصمیمات اخلاقی می گیرند. البته بحث پیرامون معنای استقلال، یک بحث فلسفی است و استقلال از آن واژه های اسرارآمیز در فلسفه است و در اینجا ما از معنای مهندسی آن استفاده می کنیم و منظورمان از استقلال روبات یعنی آنکه روبات ها قادر هستند تا حداقل برخی از تصمیمات مهم درباره اعمالشان را با استفاده از برنامه ریزی خودشان بگیرند. این معنا از استقلال ممکن است در بعضی جاها ساده باشد، مثل زمانی که جاروبرقی های روباتی برای ارزیابی چگونگی هدایت خود هنگام تمیز کردن زمین، تصمیماتی را می گیرد. اما از طرفی ممکن است آنقدر ها هم ساده نباشد و نیازمند استدلال اخلاقی و معنوی پیچیده باشد، مثل زمانی که پرستارهای روباتی باید تصمیم بگیرند که چگونه با بیمار تعامل کنند که علایق ماشین و بیمار، هر دو به بهترین شکل ارضا شود.
برنامه نویسان این ماشین ها مسئول هستند، اما نه کاملاً. همانگونه که والدین یک فرد تا حدی فاکتور هستند اما تنها علت تصمیم گیری فرد نیستند. این به آن معناست که برنامه نویسان یک ماشین نباید به عنوان تنها محل فاعلیت اخلاقی در آن در نظر گرفته شوند. این موضوع خود ماشین را به عنوان محلی برای فاعلیت اخلاقی مطرح می کند. فاعلیت اخلاقی در گستره ای از روابط ایجاد می شود، از جمله در رابطه بین ماشین ها با فاعل های دیگر مثل برنامه نویسان، سازندگان و بازاریاب های ماشین ها، و همچنین در رابطه بین ماشین ها با فاعل های روباتیک و نرم افزاری دیگر و کاربران این ماشین ها. در اینجا منظور آن نیست که در یک چنین جامعه تعاملی ای، روباتها تنها محل فاعلیت اخلاقی هستند، بلکه منظورآن است که در مواقع ای آنها می توانند به عنوان پیرو فاعل های اخلاقی در آن جامعه در نظر گرفته شوند.
2-3 دیدگاه های فلسفی درباره فاعلیت اخلاقی ماشین ها
چهار دیدگاه در مورد فاعلیت اخلاقی ماشین ها وجود دارد:
1- “ماشین ها اکنون فاعل اخلاقی نیستند، ولی در آینده ممکن است فاعل اخلاقی بشوند. دنیل دنت250طرفدار این دیدگاه است و در مقاله اش به نام ” وقتی هال251می کشد،چه کسی باید مورد سرزنش قرار گیرد؟” 252، استدلال می کند که ماشینی شبیه هال افسانه ای، می تواند یک قاتل در نظر گرفته شود زیرا ماشین ذات پلید دارد، یا حالت گناهکارانه ذهن را دارد که حالت برانگیزاننده هدف، حالت آگاهانه اعتقاد، یا حالت غیر ذهنی غفلت و کوتاهی را در بر می گیرد.” 253
اما برای اینکه ماشین ها از نظر اخلاقی مجرم باشند باید “قصد و نیت” هم داشته باشند، به این معنا که باید بتوانند درباره عقاید خود عقیده داشته باشند و درباره آرزوها ،آرزو داشته باشند و به همین ترتیب. او معتقد است که ما امروز ماشینهایی مثل آن را نداریم، اما هیچ دلیلی هم نمی بیند در آینده آنها را نداشته باشیم.
2- ماشین ها قادر نیستند اکنون و یا در آینده فاعل اخلاقی باشند. “سلمر برینگسجورد”254، جایگاه قدرتمندی در این زمینه دارد. او می گوید: “روبات ها هرگز اراده مستقل نخواهند داشت زیرا آنها هرگز نمی توانند کاری را انجام دهند که برای آن برنامه ریزی نشده اند.”255 .او این مطلب را با یک آزمایش اثبات می کند. در این آزمایش او از روباتی به نام پری256 استفاده می کند. پری برای آن برنامه ریزی شده است که یا گلوله کوچک را بیندازد و نشان دهد که عملی از نظر اخلاقی بد است، و یا گلوله کوچک را نگه دارد و نشان دهد که عملی از نظر اخلاقی خوب است. اینکه پری، گلوله را می اندازد و یا نگه می دارد کاملاً توسط برنامه ای که در حال اجرا است تصمیم گیری می شود، برنامه ای که توسط انسان نوشته شده است. برینگسجورد، استدلال می کند که: “تنها کاری که پری می تواند برای شگفت زده کردن برنامه نویسان انجام دهد آن است که به برنامه اش عامل رندوم اضافه شود. اما در این حالت هم اعمال پری صرفاً توسط عامل رندوم تعیین می شوند، نه اینکه به طور آزادانه توسط ماشین انتخاب شوند. بنابراین پری یک فاعل اخلاقی نیست”257 .
“سالینز”،258 این برهان را رد می کند و معتقد است که این برهان یک مشکل دارد. او می گوید: “از آنجایی که همه ما محصول اجتماعی کردن هستیم و این نوعی برنامه ریزی در هنجارها است، پس ما هم بهتر از پری نیستیم. اگر برینگسجورد درست بگوید، پس ما هم دیگر فاعل های اخلاقی نیستیم، زیرا عقاید، اهداف و آرزوهای ما کاملاً خودمختار نیستند، زیرا آنها محصولات فرهنگ، محیط، آموزش، فعالیت مغز و غیره هستند. ملزومات فلسفی برای اراده آزاد هرچه که باشند، وقتی که بحث به فاعلیت اخلاقی می رسد، موضوعی هستند برای عوض کردن بحث و رد گم کردن. ممکن است روبات ها آن اراده آزاد را نداشته باشند، اما ما هم ممکن است آن را نداشته باشیم.”259به علاوه درباره اراده آزاد در ماشین ها “والاچ وآلن” 260 مباحث مفیدی را مطرح کرده اند که در ادامه به تفصیل آن خواهیم پرداخت.
3- ما فاعل اخلاقی نیستیم، اما روبات ها هستند. عقیده جذابی که حداقل یک نفر به آن معتقد است. “جوزف امیل نادو”261 ادعا می کند که “یک عمل، عمل آزادانه است اگر و فقط اگر مبتنی بر دلایلی باشد که فاعل آن عمل درباره آن دلایل کاملاً فکر کرده باشد. او در ادامه می گوید فقط فاعلی که به شدت مطابق با اثبات قضیه منطقی عمل می کند، می تواند واقعاً آزاد باشد.”262. اگر اراده آزاد لازمه فاعلیت اخلاقی بودن است و ما به عنوان انسان چنین سیستمی را در مغزمان نداریم، پس با استفاده از منطق نادو، ما فاعل آزاد نیستیم. به عبارت دیگر “روبات هایی که به این روش برنامه ریزی شده اند که طبق اثبات قضیه منطقی عمل کنند، اولین فاعل های اخلاقی روی زمین هستند.”263.) ممکن است فردی این موضوع را مطرح کند که احتمال اینکه ما اثبات قضیه منطقی را بتوانیم در مغز بیولوژیکی خود داشته باشیم بسیار کم است اما در ماشین مجازی ای که توسط ذهن ما ساخته شده است آن را داریم، و بنابراین برهان نادو را از دیدگاه محاسباتی تبیین کند، اما افرادی هم که منطق را آموزش دیده اند، انواع مختلف اثبات قضیه را دارند، به این معنا که حداقل برخی انسانها هستند که می توانند فاعل اخلاقی باشند.)264
4- “لوسیانو فلوریدی”265 و”جی دبلیو ساندرز”266 ،از گروه اطلاعات اخلاق در دانشگاه آکسفورد برهان جالبی را بیان می کنند. آنها استدلال می کنند که” راه کنار آمدن با پارادوکس های آشکاری که در نظریه های اخلاقی وجود دارد آن است که یک ” اخلاقیت بدون ذهن “267 را با آنها وفق دهیم که از مسائلی شبیه اراده آزاد و قصد و نیت سر باز می زند، زیرا این مسائل ، همه مسائل حل نشده در فلسفه ذهن هستند که به شکل نامتناسبی در فاعل های مصنوعی مثل روبات ها به کار می روند.
آنها می گویند در عوض ما باید موجودات مصنوعی را فاعل هایی بدانیم که وقتی آنها را تحلیل می کنیم دارای سطوح مناسبی از انتزاع هستند. اگر سطح انتزاع را بسیار کم در نظر بگیریم، حتی نمی توانیم فاعلیت را به خودمان نسبت دهیم، زیرا تنها چیزی که یک ناظر می بیند عملیات های مکانیکی بدن ما هستند. اگر اعمال یک فاعل با محیط اطرافش در تعامل باشند و با آن از طریق تغییرات و یا برنامه ریزی سازگار باشند، هنوز این اعمال تا حدی مستقل از محیطی هستند که فاعل خودش را در آنجا می یابد و بنابراین، این امر برای یک موجود کافی است تا فاعلیت خودش را داشته باشد. وقتی که این تعاملات اتوماتیک سرحد صبررا بگذرانند و موجب آسیب شوند، ما می توانیم به طور منطقی به آنها ارزش اخلاقی منفی را نسبت دهیم، و همچنین فاعل ها می توانند به سطح قطعی مناسبی از ملاحظات اخلاقی خودشان معتقد باشند، مثل همان صورتی که انسان می تواند برای حالات اخلاقی حیوانات، محیط و یا حتی موجودات قانونی مثل شرکت ها استدلال کند.”268
از بین چهار نظریه بالا، نظریه چهارم معقول تر، کاربردی تر و قابل قبول تر به نظر می رسد. پس ما هم با این دو دانشمند موافقیم و معتقدیم برای اینکه بتوان موجودات هوشمند مصنوعی را به عنوان فاعل اخلاقی ملاحظه کرد باید رفتار آنها را در تعامل با محیطشان بسنجیم و بسته به میزان سازگاری و انطباق آنها با محیط ، فاعلیت آنها هم افزایش می یابد.
در بخش بعدی این موضوع را بررسی خواهیم کرد که فاعل های هوشمند چه شرایطی را باید داشته باشند و این شرایط چگونه بدست می آید؟
2-4 ویژگیهای ابتدایی فاعل های هوشمند
بسیاری از فیلسوفان تکنولوژی و دانشمندان شرایط خاصی را که باید یک موجود مصنوعی داشته باشد تا بتوان او را فاعل اخلاقی به حساب آورد بر شمرده و طبقه بندی کرده اند. در این بخش نظرات برخی از آنها بررسی می شود.
فاعل های مصنوعی چیستند؟ یک روبات یا یک سیستم هوشمند چه شرایطی را باید دارا باشد تا یک فاعل به حساب بیاید؟ فاعل های هوشمند چه اصولی را باید رعایت کنند تا فاعل اخلاقی به حساب بیایند؟ یک برنامه بازی شطرنج خوب، برنامه ای است که بازی های شطرنج را ببرد، کامپیوتر یا برنامه خوب، آن است که هدفی که ما در ساخت آن داشتیم را، برآورده کند. اما اگر بخواهیم کامپیوتری بسازیم که در معنای اخلاقی خوب باشد، خیلی مشخص نیست که چه نوع کامپیوتری باید بسازیم تا به موفقیت برسیم. با این وجود، هر چه که پیشرفت ها در حوزه هوش مصنوعی بیشتر می شود، و به مرحله ظهور فاعل های کاملاً خودمختار نزدیک می شویم، مسئله چگونگی طراحی و تکمیل یک فاعل اخلاقی مصنوعی، اهمیت بیشتری برای ما پیدا می کند. روبات هایی که ظرفیت انجام اعمالی را دارند که برای انسانها سودمند هستند، ظرفیت انجام اعمال مضر را هم برای انسانها خواهند داشت.
طبق نظر جان پی سالینز269، سه شرط اساسی لازم است تا یک سیستم هوشمند، فاعل اخلاقی به حساب بیاید:
“اول آنکه باید از هرگونه برنامه ریز یا کاربر مستقل باشد و کاملاً خودمختار باشد.
دوم آنکه بتوان با مشاهده اعمال روبات آنها را توصیف کرد و مثلاً بتوانیم بگوییم عمل او خوب یا بد است و یا عمل او موجب آسیب می شود.
سوم آنکه فاعلیت اخلاقی روبات مستلزم آن است که روبات به گونه ای رفتار کند که نشان دهد نسبت به فاعل های اخلاقی دیگر مسئولیت پذیر است و فهمی از مسئولیت پذیری دارد.”270
اگر روباتی این خصوصیات را داشته باشد دارای حقوق اخلاقی خواهد بود و همچنین به عنوان یک شخص، مسئولیت دارد.
امروزه، در این نقطه از زمان که ما در آن به سر می بریم هنوز تکنولوژی آنقدر پیشرفت نکرده است که بتوان موجودات مصنوعی را به عنوان یک شخص صاحب حقوق انسانی قلمداد کرد. خود سالینز هم به ناچار شرط “شخص بودن”271 را از براهین خود حذف می کند و می گوید برای فاعل اخلاقی بودن، شخص بودن ملاک نیست. ولی طبق پیش بینی های علمی و روند رو به رشد تکنولوژی تا رسیدن به آن روز، زمان درازی باقی نمانده است. حتی امروزه هم سیستم های هوشمند تا حدی از شرایط ذکر شده توسط سالینز برخوردار هستند، گرچه نه به طور کامل. امروزه مهندسان تکنولوژی در ساخت ابزارهای هوشند

پایان نامه
Previous Entries دانلود پایان نامه درباره توانایی ها، ارزش اخلاقی، انرژی هسته ای، بهداشت و سلامت Next Entries دانلود پایان نامه درباره خودمختاری، اخلاق کار، ارزش های اخلاقی، ارزشهای شخصی