دانلود پایان نامه درباره خودمختاری، اراده آزاد، مسئولیت پذیری، معرفت شناختی

دانلود پایان نامه ارشد

اساساً هر ماشینی که بتواند به خاطر نتایج اخلاقی اش مورد ارزیابی قرار گیرد. مثال شخصی نسبتاً خوب مور، جایگزینی روباتها به جای پسران جوان در شغل خطرناک شتر سواری در قطر است. این روبات ها پسران جوان را از بردگی نجات می دهند. در واقع اینگونه به نظر ما می آید که همه روباتها تأثیرهای اخلاقی دارند، اگرچه در برخی موارد ممکن است تشخیص آنها از دیگران سخت تر باشد.
در سطح بعدی، “فاعل های اخلاقی تلویحی”302 قرار دارند: ماشین هایی که طراحانشان با مخاطب قرار دادن امنیت و اعتبار انتقادی ای که در طول فرآیند طراحی با آن درگیر هستند، تلاش کردند تا آنها را به گونه ای بسازند که تأثیر اخلاقی منفی نداشته باشند. همه روباتها باید طوری طراحی شوند تا فاعل های اخلاقی تلویحی باشند، تا آنجا که اگر طراحان نتوانند طبق فرآیندهایی که امنیت و اعتبار را ضمانت می کند آنها را بسازند، مسامحه کار به حساب می آیند.
بعد از این مرحله،”فاعل های اخلاقی صریح”303 قرار دارند: ماشین هایی که با استفاده از طبقه بندیها به عنوان بخشی از برنامه ریزی داخلی خود، یا شاید با استفاده از اشکال متنوع منطق “وظیفه گرایانه ای” که برای نمایش وظایف والزامات ایجاد شده است، یا با استفاده از تکنیک های متنوع دیگر، درباره اخلاق استدلال می کنند.
ورای همه اینها “فاعل های کاملاً اخلاقی”304 قرار دارند: آنهایی که می توانند قضاوت های اخلاقی صریح داشته باشند و به طور کلی کاملاً شایسته توجیه چنین تصمیماتی هستند.این سطح از اجرا اغلب اینگونه فرض شده تا نیازمند ظرفیتی برای آگاهی، نیت و اراده آزاد باشد. اگر هر کدام از این سه در انسان وجود نداشته باشند، فاعلیت اخلاقی انسان و امکان مجازات قانونی تبدیل به یک پرسش می شود.
در حالیکه تصور سیستم های مصنوعی ای که فاعل های “اخلاقی تلویحی” یا فاعل های “اخلاقی صریح” باشند نسبتاً آسان است، فاعلیت اخلاقی صریح چالش های مشکل تری را مطرح می کند. بسیاری از فیلسوفان (و برخی از دانشمندان) استدلال می کنند که غیر ممکن است ماشین هایی داشته باشیم که فاعل های کاملاً اخلاقی باشند. این فیلسوفان و دانشمندان شک دارند که انسان ها بتوانند فاعل های مصنوعی ای همراه با آگاهی،نیت و اراده آزاد بسازند و بیان می کنند که یک خط روشن وجود دارد که فاعل های صریح اخلاقی را از فاعل های کاملاً اخلاقی جدا می کند.
مور معتقد است که فاعل های صریح اخلاقی باید هدف پیدایش رشته اخلاق ماشین باشند. در پاسخ به این سؤال که چرا اخلاق ماشین مهم است، مور سه دلیل می آورد:
“1-خود اخلاق مهم است
2- ماشین هایی که ساخته شده اند، خودمختاری فزاینده خواهد داشت ( که در نهایت ما را مجبور خواهد کرد تا اصول اخلاقی ای ایجاد کنیم که رفتار صحیح این ماشین ها را مشخص کنند.)
3-در نهایت اینکه تلاش برای برنامه ریزی اخلاق در یک ماشین، به ما فرصت فهم بهتر اخلاق را خواهد داد.”305
2-6-2جان پی سالینز
سالینز سه شرط را لازمه فاعلیت اخلاقی ماشین ها می داند:
برای ارزیابی هر تکنولوژی روباتیک خودکار، لازم است که فرد این 3 سؤال را از تکنولوژی تحت بررسی بپرسد:
“1-یا روبات به شکل قابل توجهی خودکار است؟(خود مختاری و اراده آزاد)
2-آیا رفتار روبات عمدی است؟(قصد و نیت)
3-آیا روبات در جایگاه مسئولیت پذیری قرار دارد؟”306
این سه سؤال باید در سطح معقولی از انتزاع ملاحظه شوند و اگر پاسخ هر سه ” بله” باشد، آنگاه روبات یک فاعل اخلاقی است.
2-6-2-1خودمختاری 307
درباره خودمختاری و داشتن اراده آزاد، سالینز معتقد است: “بهتر است خودمختاری را در روباتها در معنای مهندسی آن بکار بگیریم و آن را به روباتها نسبت دهیم. زیرا توضیح فلسفی خودمختاری اغلب ناموفق بوده است.”308 روبات زمانی خودمختار است که بتواند مستقل از برنامه نویس و کاربر کار کند. البته نمی توان گفت که هر نوع روباتی اساساً خودمختاری خواهد داشت، همانطور که در مورد انسانها هم حتی نمی توان اینگونه صحبت کرد. در اینجا معنای “خودمختاری” صرفاً معنای مهندسی آن، یعنی ماشینی است که تحت کنترل مستقیم هیچ فاعل و یا کاربری نباشد. روبات نباید یک تله روبات باشد و یا به صورت موقتی مثل یک تله روبات رفتار کند. اگر روبات این سطح از خودمختاری را داشته باشد، آنگاه روبات فاعلیت مستقل عملی دارد. اگر این خودمختاری در کسب اهداف و انجام کارهای روبات مؤثر باشد، آنگاه می توانیم بگوییم روبات خودمختاری مؤثر دارد. هر چه خودمختاری روبات مؤثرتر باشد و در بدست آوردن اهدافش بهتر عمل کند، فاعلیت بیشتری را می توان به آن نسبت داد و هنگامی که این فاعلیت موجب صدمه می شود و یا عمل خوبی را در معنای اخلاقی انجام می دهد، می توان گفت روبات فاعلیت اخلاقی دارد.
البته خودمختاری ای که به این صورت تعریف شده باشد، به خودی خود برای نسبت دادن فاعلیت اخلاقی به ماشین ها کافی نیست. اگر این گونه فکر کنیم، پس باید موجوداتی مثل باکتری ها یا حیوانات، اکو سیستم ها، ویروس های کامپیوتری، برنامه های ساده زندگی مصنوعی یا روبات های اتوماتیک ساده را فاعل اخلاقی بدانیم. اما تنها موجوداتی شایستگی فاعلیت اخلاقی را دارند که علاوه بر خودمختاری دو شرط دیگر را هم داشته باشند.

2-6-2-2قصد و نیت309
طبق نظر سالینز، “زمانی می توان فاعلیت اخلاقی را به روباتها نسبت داد که روبات اعمال خود را با قصد ونیت انجام دهد و بتوانیم بگوییم روبات “عقیده”310 دارد که مثلاً از بیماران مراقبت کند. البته لازم نیست این “عقیده”، عقیده واقعی باشد، صرفاً می تواند یک تظاهر باشد. ممکن است ماشین هیچ ادعایی نداشته باشد که آگاهی دارد، یا دارای روح، ذهن و یا سایر مفاهیم مشکوک فلسفی است. عقاید ماشین فقط باید بتوانند در حل سؤالات اخلاقی و یا معماهایی که سر راه ماشین قرار می گیرند، حالت برانگیزاننده و تحریک کنندگی داشته باشند و برای ماشین ایجاد انگیزه کنند.”311 برای مثال پرستاران روباتیک برای آن طراحی شده اند که در مراقبت از بیماران دستیار انسان باشند. قطعاً یک انسان پرستار، یک فاعل اخلاقی است، اما یک ماشین هم می تواند یک فاعل اخلاقی باشد اگر خودمختار باشد، با قصد و نیت رفتار کند و برنامه ریزی اش آنقدر پیچیده باشد که نقش خود را در مسئولیت مراقبت از بیماران تحت نظر خود، بفهمد. چنین ماشینی در حال حاضر در شرف عرضه نیست. هر ماشینی که توانایی اش کمتر از این باشد، نمی تواند یک فاعل اخلاقی کامل باشد، گرچه ممکن است خودمختاری و قصد و نیت را داشته باشد، اما اینها آن را شایسته ملاحظه اخلاقی نمی کنند. بلکه ماشین باید درکی از مسئولیت پذیری هم داشته باشد.

2-6-2-3مسئولیت پذیری312
در حال حاضر ما هنوز به آن مرحله از پیشرفت علم دست نیافته ایم که ماشینهای مصنوعی مان درک واضحی از مسئولیت پذیری داشته باشند. در واقع ما باید دقت کنیم که چه زمانی ماشین ها را به عنوان فاعل های اخلاقی در نظر می گیریم و دقیقاً زمانی که شایسته است این صفت را به آنها نسبت دهیم. اما قبل از رسیدن آن روز که روبات ها بتوانند درکی از مسئولیت خود داشته باشند، آنها توانایی گرفتن تصمیمات اخلاقی خودکار را خواهند داشت و از خود مسائل آزار دهنده ای را نشان خواهند داد. مخصوصاً وقتی که از آنها در کارهای پلیسی و جنگ استفاده می شود. امروزه در صحبت های محاوره ای خود به سادگی می توانیم بگویی که ماشینها ممکن است در آینده خودمختارتر شوند، نیات واضح تری داشته باشند و معنای دقیق تری از مسئولیت پذیری را در مقایسه با انسان های فاعل، از خود نشان دهند. در این صورت ممکن است حالات اخلاقی آنها از حالات اخلاقی انسان ها پیشی بگیرد. اما این امر چگونه می تواند اتفاق بیفتد؟ فیلسوف “اریک دیتریش”313، استدلال می کند که: “همانطور که ما بیشتر و بیشتر قادر می شویم تا از نظر محاسبتی از ذهن انسان تقلید کنیم،نیاز داریم تا از برنامه ریزی تمایلات بدی که تکامل به ما داده است در ماشین های خود چشم پوشی کنیم. فقط آنهایی که تمایل دارند تا عظمت انسانیت را تولید کنند، باعث می شوند که ما از طبیعت خود، روبات هایی بهتر را تولید کنیم و جهان را تبدیل کنیم به مکانی بهتر”314.

2-7چه زمانی ماشین ها از اراده آزاد و آگاهی و درک برخوردارند؟
بعد از ذکر شرایطی که ماشین های مصنوعی باید آن ها را دارا باشند تا بتوان آنها را به عنوان فاعل اخلاقی ملاحظه کرد، باید بدانیم چطور می توان این شرایط را در ماشین ها ایجاد کرد؟ یک روبات در چه صورتی خود مختاری و اراده آزاد دارد؟ و در چه صورتی می توان گفت از درک و آگاهی کامل نسبت به اعمال خود برخوردار است؟ والاچ و آلن، این شرایط را بررسی کرده اند و براهینی را مطرح کرده اند که طبق آن براهین ما می توانیم ارداه آزاد و آگاهی را به ماشینها نسبت داده و با قطعیت بگوییم ماشین ها هم از اراده لازم و هم از میزان درک و آگاهی لازم برای فاعلیت اخلاقی برخوردارند.
بسیاری از مردم اعتقاد دارند که ماشینها قادر نیستند واقعاً یک موجود آگاه باشند، فاقد درک واقعی و عاطفی هستند که مهمترین روابط انسانی را تعریف می کنند و هنجارهای اخلاقی انسانها را شکل می دهند. این تواناییها چیستند؟ (سؤال هستی شناسانه). از نظر علمی چه چیزی می توان در مورد آنها دانست؟ (سؤال معرفت شناختی). آیا اخلاق مصنوعی مبتنی بر پاسخ دادن به این سؤال ها است؟(سؤال عملی).
اگر بخواهیم به صورت عملی صحبت کنیم، تمام پیشرفت هایی که تا کنون در حوزه AI به وجود آمده است، نرم افزارهایی را در بر می گیرند که روی سخت افزار دیجیتالی کار می کنند. شاید یک روز، خیلی زودتر از آنچه که مردم فکر می کنند، پیشرفت AMA در ظروف کوچک مخصوص کشت میکروب یا کامپیوترهای کوآنتومی اتفاق بیفتد، نه در CPUها. اما، حداقل در آینده نزدیک رشته اخلاق مصنوعی گرفتار محاسبه دیجیتالی است. آیا این موضوع به این معنی است که کامپیوترهای دیجیتالی نمی توانند فهم واقعی و آگاهی داشته باشند؟

2-7-1خودمختاری و اراده آزاد 315
برخی معتقدند که مفهوم اراده آزاد انسان اغلب نوعی مفهوم اسرار آمیز است که زمینه ساز احساسات فرد از آزاد بودن برای عمل است، حتی اگر نتوان آن را به شکلی علمی و قابل قبول تعریف کرد. اما فیلسوف دانیل دنت، چنین تصورات سحرآمیزی از اراده آزاد را رد می کند. او در عوض معتقد است که توانایی ملاحظه انتخابهای چندگانه و انتخاب از بین آنها، تنها نوعی از آزادی است که انسانها دارند، و تنها نوعی است که شایسته است انسانها آن را داشته باشند. با این وجود، از آنجایی که اراده آزاد نمی تواند بر حسب عبارات واضح فرمول بندی شود، دیدگاه اسرار آمیز تنها برهان مبهمی است علیه تلاش برای ساخت AMA ها. این مشکل که یک جزء سحرآمیز در اراده آزاد انسان وجود دارد مشکلی است که ما نمی توانیم آن را تکذیب کنیم، و نمی توانیم آن را در کار ساخت AMAها هم بکار گیریم.
آیا این موضوع کل پروژه ساخت AMA ها را از بین می برد؟ قطعاً این تصور درستی نیست. توانایی دیپ بلو برای انتخاب الگوریتمی از میان حرکتهای شطرنج در مبارزه با گری کاسپاروف، با وجود کمبود اجزاء جادویی، مختل نشد. البته ممکن است فردی استدلال کند که موفقیت های دیپ بلو، بطور قاطع بر خلاقیت انسان که در طراحی آن بکار رفته، مبتنی است. اما حتی اگر این خلاقیت انسان جبری نباشد، نتیجه یک سیستم جبری می شود که قادر است در بالاترین سطح شطرنج بازی کند.
دیپ بلو، علی رغم اینکه یک سیستم جبری است به عنوان یک فاعل در برخی جنبه ها دارای صلاحیت است، در حالیکه در جنبه های دیگر اینگونه نیست. لوسیانو فلوریدی و چی دبلیو ساندرز، سه ویژگی کلیدی را شناسایی کرده اند که در مفهوم فاعل های هوشمند مهم هستند:
“تعامل: پاسخ به محرک بوسیله تغییر حالت، یعنی، فاعل و محیطش می توانند روی یکدیگر عمل کنند.
خود مختاری: توانایی تغییر حالت بدون محرک، یعنی، بدون پاسخ مستقیم به فعل و انفعال، که منجر به درجه ای ازپیچیدگی و جدایی از محیط می شود.
وفق پذیری: توانایی تغییر “قواعد تحول” که بوسیله آنها حالت، تغییر پیدا کرده

پایان نامه
Previous Entries دانلود پایان نامه درباره خودمختاری، علوم کامپیوتری، هوش مصنوعی، ژن درمانی Next Entries دانلود پایان نامه درباره محدودیت ها، سیستم عصبی، رفتار اخلاقی، معرفت شناختی