دانلود پایان نامه درباره خودمختاری، علوم کامپیوتری، هوش مصنوعی، ژن درمانی

دانلود پایان نامه ارشد

اخلاقی بودن وجود دارند. در رویکرد ما به سمت اخلاق مصنوعی، ما در امتداد بعد خودمختاری ای که مسلم فرض شده، پیشرفت می کنیم- این موضوع در حال رخ دادن است و همچنان ادامه دارد. چالش برای منضبط کردن اخلاق مصنوعی یعنی اینکه چگونه در مسیری که توسط محور دیگر مشخص شده است حرکت کنیم: مسیر حساسیت نسبت به ملاحظات اخلاقی.
سیستم های پشتیبان تصمیم گیری خط سیری را در توسعه سیستم های هوشمند تشریح می کنند که توسط آن، تکنولوژیهایی که به ملاحظات اخلاقی حساس هستند می توانند مستقل از سیستم هایی که خودمختاری افزایشی دارند توسعه پیدا کنند. این خط سیر، که تصمیم گیری را در دستان انسان قرار می دهد، به نظر می رسد که ورای سیستم های پشتیبان تصمیم گیری خارجی حرکت کند تا انسان و تکنولوژی را صمیمانه تر باهم ادغام کند. بنابراین خودمختاری افزوده تنها یک خط سیر را در توسعه سیستم های هوشمند نشان می دهد.
نمونه ای از حضور خودمختاری و عدم حضور حساسیت نسبت به ارزشها را در فیلم روبوکاپ281 مشاهده می کنیم. شاید یکی از به یادماندنی ترین صحنه ها در فیلم های علمی تخیلی شروع به کار ED-209 بود، یک روبات بزرگ زشت فلزی که در سال 1987 در فیلم روبوکاپ نمایش داده شد. نمونه اولیه یک روبات افسر پلیس، ED-209 برای شلیک به سمت جنایتکارانی که نمی توانستند بعد از چندین بار هشداراسلحه خود را به زمین بگذارند برنامه ریزی شده بود. در فیلم روبوکاپ، کینی282، یک مجری جوان، مشتاقانه داوطلب شد تا برای نمایش ED-209 به هیئت مدیره نقش جنایتکار را بازی کند. روبات هشدار خود را با صدای استاندارد و یکنواختی که توسط کامپیوتر ایجاد شده بود، به زبان می آورد، و کینی تفنگش را به زمین می اندازد. هشدار دو بار دیگر تکرار می شود. سپس روبات او را باتعداد زیادی گلوله می کشد.
ED-209، یک روبات خودمختار یا حداقل شبه خودمختار را نمایش می دهد. در فیلم، عدم موفقیت ED-209 یک مانع کوچک برای فرآورده های تماماً مصرفی است، در عین حال یک تیم دیگر از قبل مشغول ایجاد یک استراتژی جایگزین برای مبارزه با جنایت هستند-روبوکاپ- یک سازواره مجازی که مغز افسر مقتول را با AI ادغام می کند. آنها می خواهند با این ترفند ارزشهای اخلاقی را در مصنوعات خود حاضر کنند.
بسیاری از نظریه پردازان معتقدند که سازواره های مجازی نتیجه طبیعی تحقیقات کنونی در IT ، علم شناخت اعصاب مصنوعی، داروشناسی عصبی، نانوتکنولوژی، و ژن درمانی خواهند بود. ادغام انسان ها با تکنولوژی هایشان موضوعات اخلاقی ای را به وجود می آورد که با توسعه سیستم های خودمختار متفاوت هستند. مفروض است که جزء انسانی یک سازواره مجازی نسبت به ملاحظات اخلاقی حساسیت داشته باشد، اگرچه در اینجا موضوع نگران کننده آن است که تکنولوژی بکار گرفته شده، نباید با خودمختاری و استعدادهای اخلاقی انسان مداخله داشته باشند. این مشکلی است که در مورد پیدایش رشته اخلاق دستگاه عصبی هم مطرح می شود.
روبوکاپ و ED-209، دو خط سیر متفاوت را در توسعه IT نمایش می دهند: AI تحت کنترل مستقیم انسان ها، وسیستم های خودمختاری که قادرند کارکرد مستقل داشته باشند. در اینجا امر مهمی که باید متذکر شد آن است که پیشرفت هایی که در تکنولوژی پشتیبان تصمیم گیری حساس به اخلاق و اعصاب مصنوعی به وجود آمده اند، ممکن است برای ارتقاء سیستم های خودمختار بکار روند.
توسعه تکنولوژی، تعاملی است بین خودمختاری افزوده و افزایش حساسیت. با افزایش خودمختاری، نیاز به وجود مهندسان مطرح می شود تا موضوعات امنیتی و اعتباری گسترده تری را بررسی کنند. برخی از آن نیازها ممکن است نمایش صریح طبقه بندیهای اخلاقی و اصول را در بر داشته باشند، و برخی دیگر نه. حدس ما آن است که مهندسان این ظرفیت ها را به شکل تدریجی اضافه خواهند کرد. خودمختاری افزوده برای روباتها، فرآیندی است که از قبل به خوبی در حال انجام بود. چالشی که سر راه رشته اخلاقیت مصنوعی قرار دارد، چگونگی حرکت در مسیری است که توسط محورهای دیگر مشخص شده است: حساسیت نسبت به ملاحظات اخلاقی.
حساسیت نسبت به ملاخظات اخلاقی ممکن است برای یک AMA چندین معنا داشته باشد. “درو مک درموت”283، استاد علوم کامپیوتری در دانشگاه “یل”284 و عضو افتخاری انجمن توسعه هوش مصنوعی، سعی کرد تا این مطلب را روشن کند. مک درموت استدلال می کند که “در طراحی AMAها، مهم است که تفاوت بین دلایل اخلاقی و تصمیم گیرندگان اخلاقی را در ذهن خود نگه داریم.”285تفکرات اولیه درمورد چگونگی ساخت ماشین های اخلاقی، دنباله رو مک درموت در تصمیم گیری اخلاقی نبوده اند، آنها در عوض روی وفق دادن ابزارهای استدلالی ای تمرکز کردند که در محدوده گسترده ای از سیستم های متخصص استدلال اخلاقی مورد استفاده قرار می گرفتند.
برای مثال، این رویکردی است که توسط “بلی ویت بای”286، استاد دانشگاه در علوم کامپیوتری و هوش مصنوعی در دانشگاه “ساسکس”287 در “برایتون”288 انگلستان، پیشنهاد شد. ویت بای، کسی که بیشتر از بیست سال در حال نوشتن درباره ابعاد اجتماعی و اخلاقی محاسبه بود، بخشی دارد درباره “نمایش کامپیوتری استدلال اخلاقی”289 درکتاب “تأملاتی درباره AI”290 در سال 1995. در آن بخش او نشان می دهد که “چگونه قواعد شرطی if-then که توسط سیستمهای متخصص مورد استفاده قرار می گرفتند، ممکن است برای استدلال اخلاقی در کاربردهای قانونی و دیگر کاربردها وفق داده شوند. ویت بای کاملاً از مشکلات اصلی در ساخت استدلال کنندگان، و محدودیت های تنها تکیه کردن به استدلال انتزاعی آگاه است.”291
به همین ترتیب، مک درموت متذکر می شود که حتی اگر شخصی بتواند چالش های سختی که سر راه ساخت سیستم های استدلال کننده قرار دارند را حل کند، این فاعل ها باز هم نمی توانند تصمیم گیرندگان اخلاقی باشند. او تصمیم گیری اخلاقی را در مقابل استدلال اخلاقی قرار می دهد، با نوشتن این جمله: “اما توانایی تصمیم گیری اخلاقی مستلزم آن است که بدانیم یک تعارض اخلاقی چیست، یعنی، تعارض بین علاقه شخصی و آنچه که اخلاق تعیین می کند.”292 در دیدگاه مک درموت، یک فاعل فقط می تواند بداند که یک تعارض اخلاقی چیست و اگر آن فاعل اراده آزاد کافی داشته باشد تا زمانی که انجام عملی برخلاف امر اخلاقی است، او انتخاب کند که گاهی مطابق علاقه شخصی خود عمل کند، آنگاه آن فاعل می تواند یک تصمیم گیرنده اخلاقی واقعی باشد. اما چطور ممکن است انسان معیاری را برای حساسیت اخلاقی یا فاعلیت اخلاقی پرورش دهد؟آلن تورینگ سعی کرد تا معیاری را برای ارزیابی هوشمندی ماشینها مطرح کند که به تست تورینگ مشهور شد. آیا یک تست تورینگ اخلاقی می تواند معیاری را برای ارزیابی حساسیت اخلاقی ماشینها به وجود بیاورد؟ این پرسشی است که تا امروز پاسخی برای آن ارائه نشده است.
2-5 تست اخلاقی تورینگ293(MTT)
هم در تئوری های اخلاقی و هم در صحبت های روزمره، مردم درباره اخلاقی بودن اعمال متفاوت توافق نظر ندارند. کانت ادعا می کرد که دروغگویی همیشه غیر اخلاقی است، نتیجه مهم نیست. اما یک سودگرا این نظر را رد می کند و معتقد است که دروغگویی، در زمانی که نتایج آن برای بیشتر مردم خوب باشد، امری توجیه شده است. در مواجهه با این تنوع دیدگاه ها درباره انتخاب استاندارد اخلاقی مناسب برای زندگی، یک معیار مناسب برای موفقیت در ساخت AMA “تست تورینگ”294 است. در تست تورینگ ” فرد محقق”، بر مبنای تعامل خود با ماشین و انسان از طریق زبان چاپی، مسئول تشخیص دادن ماشین از انسان است. یک تست اخلاقی تورینگ، ممکن است به این دلیل بکار برده شود که با محدود کردن استاندارد تست تورینگ به مکالماتی درباره اخلاق، یک راه فرعی باشد برای پشت سر گذاشتن اختلاف نظرها درباره استانداردهای اخلاقی. اگر فرد محقق، نتواند با استفاده از استدلال عقلی و بدون تکیه بر شانس ماشین را شناسایی کند، آنگاه طبق این معیار، ماشین یک فاعل اخلاقی است.
“یکی از مشکلات این تست آن است که این تست بیش از حد بر صحبت درباره گزاره های اخلاقی متکی است.”295 شاید یک فرد کانتی با این موضوع مشکلی نداشته باشد، زیرا کانت معتقد بود که یک فاعل اخلاقی خوب، نه تنها باید به شکل اخلاقی عمل کند، بلکه اعمالش در نتیجه استدلال های او است که این استدلال ها از طریق خاصی انجام شده اند. اما هم سودگرایان و هم وجدان عمومی معتقدند که تست اخلاقی تورینگ بیش از حد به این موضوع متکی است که فرد بتواند دلایل خود را برای انجام اعمالش، به تفصیل بیان کند. سودگرایان معتقدند که اعمال مختلف، می توانند مستقل از انگیزه های فاعل خوب باشند، و به این ترتیب، ممکن است اعمال بچه های کوچک، و یا حتی سگ ها، اخلاقی باشند، هرچند که آنها نمی توانند دلایل خود را به تفصیل بیان کنند.
برای رفع این مشکل، می توان MTT را به گونه ای ساخت که در آن، به فرد محقق توصیفاتی از اعمالی داده شود که در انسان و AMA، از نظر اخلاقی مهم هستند. اگر فرد محقق بتواند بدون تکیه بر شانس، ماشین را شناسایی کند، ماشین در تست قبول نشده است. مشکل این نسخه از MMT آن است که توانایی تشخیص، یک معیار اشتباه است، زیرا ممکن است ماشین به خاطر اعمالی که در شرایط یکسان آن اعمال را بهتر از انسان ها انجام می دهد، قابل شناسایی باشد. برای رفع این مشکل ممکن است از فرد محقق خواسته شود که تعیین کند که میزان اخلاقی بودن کدامیک از فاعل ها کمتر است. اگر ماشین به عنوان عضو کمتر اخلاقی شناسایی نشود، آنگاه در تست قبول شده است. این امر تست اخلاقی تطبیقی تورینگ((cMTT296 نامیده می شود.
یکی از مسائلی که درcMTT وجود دارد، آن است که ممکن است برخی بگویند استاندارد بکار گرفته شده در این تست، بسیار سطح پایین است. هدف محققان AI هنگام ساخت یک AMA نباید فقط ساخت یک فاعل اخلاقی باشد، بلکه باید ساخت یک فاعل اخلاقی نمونه یا حتی یک فاعل اخلاقی کامل باشد.cMTT باعث می شود که ماشین اعمالی را انجام دهد که از نظر اخلاقی اشتباه هستند و یا از نظر اخلاقی بدتر از اعمال انسان هستند.
اما می توان cMTT را آنقدر محدودکرد که در مقایسه بین دو عمل خاص، انتخابش بدتر از انتخاب انسان ها نباشد. اما انتقاد دیگری که در اینجا می توان مطرح کرد آن است که این استاندارد هم خیلی ضعیف است، یعنی رفتار خود انسان ها هم بسیار دورتر از سطح ایده آل است.
ما انسان ها چون خودمان دچار خطا می شویم، خطاهای انسان های دیگر را می توانیم تا حدی تحمل کنیم. اما روشن نیست که بتوانیم این خطاها را در ماشین ها تحمل کنیم. به عبارت دیگر، ما از ماشین هایمان بیشتر از خودمان توقع داریم.
اگر قرار باشد استاندارد اخلاقی ای که برای ماشین ها قرار می دهیم، بالاتر از استاندارد اخلاقی انسان ها باشد، این استاندارد باید از کجا بیاید؟ تئوریهای اخلاقی و یا رویکردهایی که از یادگیری و تکامل استفاده می کنند، می تواند پاسخ های مناسبی به این پرسش ارائه کنند که در بخش بعدی درباره آن صحبت خواهیم کرد.

2-6 مشخصات فاعل های مصنوعی اخلاقی از دیدگاه فیلسوفان
2-6-1″جیمز مور”297
فیلسوف دیگری که درباره رشته اخلاق مصنوعی کار کرده است و یکی از بنیان گذاران رشته اخلاق کامپیوتر است، جیمز مور، استاد فلسفه در دانشگاه “دارث موث”298 است که یک طرح سلسله مراتبی را برای طبقه بندی AMAها پیشنهاد کرده است. او “5 سطح”299 مختلف از فاعلیت را شناسایی کردکه در آنها می توان ارزش ها را به ماشین ها نسبت داد.
در پایین ترین سطح، ” فاعل های کامپیوتری هنجاری”300 قرار دارند، که کمترین مفهوم هنجاری بودن را توضیح می دهند. کامپیوترهای معمولی رامی توان به عنوان ” فاعل های هنجاری” ملاحظه کرد، اما لزوماً نمی توان گفت اخلاقی هستند، زیرا آنها با هدفی در ذهن طراحی شده اند، (مثلاً برای اثبات براهین یا برای حفظ هواپیما در مسیر خود). این ها فاعل های فنی هستند که از طرف ما کارها را انجام می دهند و ما می توانیم عملکرد آنها را بر مبنای آنکه کار خود را چقدر خوب انجام داده اند، ارزیابی کنیم.
در سطح بعدی، “فاعل های اخلاقی مؤثر “301 قرار دارند –

پایان نامه
Previous Entries دانلود پایان نامه درباره خودمختاری، اخلاق کار، ارزش های اخلاقی، ارزشهای شخصی Next Entries دانلود پایان نامه درباره خودمختاری، اراده آزاد، مسئولیت پذیری، معرفت شناختی