دانلود پایان نامه درباره اراده آزاد، هوش مصنوعی، فارغ التحصیل دانشگاه، پردازش اطلاعات

دانلود پایان نامه ارشد

است، یعنی، ممکن است فاعل بعنوان آموزنده حالت عملکرد خود قلمداد شود، به شکلی که بطور انتقادی مبتنی بر تجربه او است.”316
دیپ بلو تا حدی تعاملی و خود مختار است: اما وفق پذیری را کم دارد، برای تغییر قواعدی که بوسیله آنها کار می کند، متکی به برنامه نویسان است. اضافه کردن یک جزء آموزنده به سیستم، وفق پذیری آن را افزایش می دهد اما الگوریتم های آموزنده در دسترس، امروزه از کفایت لازم برخوردار نیستند.
البته، شطرنج، علم اخلاق نیست. علم اخلاق به این معنی است که انسان چه باید باشد. ویژگی محوری تجربه انسان به عنوان فاعل اخلاقی آن است که مردم بطور متناوب احساس می کنند بین عمل خود خواهانه و عمل دیگر خواهانه معلق مانده اند. مردم کشش هر دو طرف را احساس می کنند، و این تنش امکان آزادی را فراهم می کند، آزادی مساوی برای انجام عمل غلط یا صحیح . (بعضی از دانشمندان علم اخلاق حتی مطرح می کنند که اگر غیر اخلاقی ممکن نباشد عمل اخلاقی هم ممکن نیست.)
2-7-1-1 علم اخلاق چگونه می تواند از یک سیستم جبری به وجود آید؟
“هاینس فون فورستر”317، به این سؤال اینگونه پاسخ می دهد: “روباتهای موجود چه دوست داشته باشیم چه نه، فقط کانال های منفعل قواعد اخلاقی نیستند، بلکه با فاعل های دیگر هم در تعامل هستند. نگرانی سرباز در مورد روباتی که بمب ها را ردیابی می کند، مسائل اخلاقی جدیدی را مطرح می کند، مثلاً اینکه، سرباز بقای روبات را به بقای یک سگ، ترجیح می دهد. اما این مسائل روی طراحی فاعل اخلاقی هم تأثیر دارند. برای مثال، در حوزه تکنولوژی امروزی، میزان تمایل یک سرباز به نزدیک شدن و تعامل با یک روبات و استفاده از این موضوع برای تخمین اینکه آیا او نسبت به روبات حامیانه عمل می کند یا نه، اندازه گیری می شود. به هر حال در نهایت برنامه ریزی چنین ظرفیت هایی در سخت افزار نظامی یک ایده خوب است، اهداف یک مأموریت خاص ممکن است به روبات ها دیکته کند که ترجیحاً به کسانی نزدیک شوند که به آنها با علاقمندی پاسخ می دهند. در این روش، روابط بین انسانها و روباتها می تواند دو جانبه باشد. هر فاعلی که در این ساختار دو جانبه عمل می کند، با تعارضاتی بین اهداف خود و اهداف دیگران مواجه می شود. هر گاه مجموعه ای از اهداف دنبال شوند که امکان صدمه به دیگران را در بر دارند، یک موضوع اخلاقی مطرح می شود. هر چه قدر انتخابهایی که در اختیار هستند و توسط او ارزیابی می شوند بیشتر باشند، پتانسیل بیشتری برای تعارض وجود دارد.”318
بچه های کوچک و بیشتر حیوانات درک محدودی از تأثیر اعمالشان روی سعادت دیگران دارند. از نظر آنها، قلمرو عمل اخلاقی، به واسطه نامرئی بودن انتخابها و خروجی ها محدود شده است. با وجود مهارت شناختی افزایش یافته ای که یا بصورت تحولی به دست آمده، یا به صورت توسعه ای و یا به صورت اجتماعی، آگاهی بیشتری در مورد اهداف متعارض بین فاعل ها بدست می آید. این مهارت باعث می شود که در اهداف درونی خود فاعل هم نسبت به متعارض ها حساسیت به وجود آید. ما می گوییم یک فاعل اخلاقی خبره، فاعلی است که تشخیص بدهد که جنبه های مختلف، درجه بندی های متفاوتی را در ترجیحات ایجاد می کنند. این درجه بندی های متفاوت ممکن است به روشی کاملاً خنثی و مستقل از جنبه های مختلف، قابل حل نباشد. انتخاب فاعل از میان مجموعه ای از اعمال، ممکن است محدود به سفارش یک ترجیح خاص نباشد. مردم آنهایی را که هنجارهایی متفاوت از هنجارهای خودشان دارند را تحمل می کنند. طراحی AMAها، باید با درجه ای از آزادی که در حوزه اخلاقی وجود دارد مطابقت داشته باشد.
از نظر فون فورستر، تنها پرسش از اینکه چه چیزی را انتخاب کنیم، مهم نیست بلکه بسط دادن انتخاب های موجود که در اخلاق امری محوری هستند هم مهم است. در دیدگاه دنت، بسط انتخاب مطرح می شود (طبق نقل کوتاهی از کتابش) “آزادی رشد می کند”319. منظور او آن است که” تکامل، انسانها را به ظرفیت ملاحظه انتخابهای چند گانه و پیش بینی خروجیهای چندگانه مجهز می کند.”320
بسط انتخاب در بحث دنت در مورد تکامل آزادی انسان، فقط یک موضوع نیست بلکه یک اصل مرکزی در تکامل و توسعه ماشینهای اخلاقی است. “کریس لانگ”321، فارغ التحصیل دانشگاه “ویسکنسین”322 در “مدیسون”323 ، معتقد بود که بسط انتخاب برای یک کامپیوتری که با روش مبتنی بر جستجو می آموزد، منجر به سیستمی می شود که احتمالاً بعنوان فاعل اخلاقی دوستدار انسان عمل خواهد کرد. طبق نظر لانگ، این رویکرد به طور کلی آزادی ای را در جهان افزایش می دهد، که معمولاً هم حفظ زندگی را دربر دارد و هم قدرتمند کردن مردم را- و اساساً همه چیزهایی که ما آنها را بطور کلی اخلاقی می دانیم. “ماشینهای اخلاقی حتی اگر از انسان، برتر هم باشند، باید برای تعامل با انسان ارزش قائل شوند، زیرا از دست دادن چنین تعاملی موجب کاهش تنوع محیط آنها می شود.”324
با این وجود ما مجبوریم در مورد نظر لانگ در باره ماشینهای آموزنده اخلاقی بحث کنیم، اما اکنون جالب است متذکر شویم که او مثل فون فورستر، بالا بردن انتخاب را بعنوان کلیدی برای فاعل اخلاقی بودن می داند.
ما گفته ایم که پرسش از اینکه آیا سیستم های جبری می توانند بعنوان فاعل های اخلاقی واقعی ملاحظه شوند یا نه، به همان اندازه این پرسش که آیا ماشین ها واقعاً اراده آزاد دارند یا نه، غیر قابل پاسخ است. اگر برداشت شما از فاعل اخلاقی واقعی بودن یک تصور «سحر آمیز» از اراده آزاد را در بردارد، هیچ راهی نیست تا مطمئن شوید که انسان ها هم آن را دارند. اما حتی اگر انسانها هیچ آزادی سحرآمیزی نداشته باشند، موضوع چگونگی مطرح شدن انتخاب اخلاقی عمدتاً عوض نشده است. بحث اخیر پیرامون رابطه بین اخلاق و آزادی ملاحظات مهمی را درباره طراحی AMAها متذکر می شود. حتی در خلال چارچوبی جبری برای عمل، اخلاق، انتخابی در اختیار دارد که قابل تجدید نظر است. همانطور که فاعل های جدید وارد محیط اخلاقی می شوند، انتخابها منبسط و نتایج چند گانه می شوند. برای عملکرد بهتر در محتوای اخلاق انسانی، AMAها نیازمند استعداد تعیین انتخابهای چندگانه و ملاحظه جنبه های ارزیابانه متفاوت خواهند بود.
2-7-2آگاهی و درک325
آگاهی و درک انسان، مثل اراده آزاد، برای خیلی ها یک جذابیت مرموز دارد. و مثل تمام تلاشهایی که برای روشن کردن ذهن انسان انجام شده است، این ادعا که سیستم های دیجیتالی می توانند صاحب فهم واقعی یا آگاهی واقعی شوند، مخالفان سرسختی دارد. با وجود تمایل انسان به شبیه انسان کردن حیوانات خانگی و ماشینها، به سختی می توان گفت که آنها چیزی شبیه درک یا آگاهی انسان را ندارند. اما روباتها واقعاً چه نوعی از درک را می توانند داشته باشند، و آیا آن درک برای ساخت AMAها کافی است؟ آیا یک AMA نیازمند آگاهی خواهد بود، و یک سیستم می تواند بدون آگاهی، یک فاعل اخلاقی در نظر گرفته شود؟ هم در قانون و هم در فلسفه، فاعل اخلاقی بودن برای داشتن مسئولیت اخلاقی کافی است و به ندرت به افرادی نسبت داده شده که درک ندارند و یا از آنچه که انجام می دهند آگاه نیستند، مثل بچه های کوچک. بیشتر مردم وقتی اولین بار درباره اخلاق مصنوعی می شنوند، وارد موضوعات حقوق و مسئولیت می شوند، اما مثل گذشته در اینجا کار ما آن است که در مقایسه با نقش مهم آگاهی و درک در توانایی سیستم برای ایجاد قضاوت اخلاقی، کمتر به سؤالات کم اهمیت در مورد اینکه بعد از خلق موفق AMA چه کنیم، بپردازیم.
والاچ و آلن، برای تبیین چگونگی درک ماشینها از استدلال” شناخت تجسم یافته”326 استفاده می کنند از نظر آنها “اتاق چینی سرل”327 صفر پایه برای ادامه مناظرات پیرامون درک ماشین است.
[در برهان اتاق چینی سرل، فرض بر آن است که فردی که اصلاً زبان چینی نمی داند در یک اتاق محبوس است. به او مجموعه ای از نوشته های چینی داده می شود. سپس به اومجموعه ای دیگر از نوشته های چینی همراه با دسته ای از قواعد داده می شود تا مجموعه دوم را به مجموعه اول مرتبط سازد. قواعد به زبان انگلیسی است. این قواعد فرد را قادر می سازد که دسته ای از علائم صوری را با دسته ای دیگر از علائم صوری مرتبط سازد. منظور از “صوری” این است که فرد فقط از طریق اشکال علائم می تواند آنها را تشخیص دهد. حال فرض می کنیم که مجموعه سومی از علائم به همراه دستوراتی به زبان انگلیسی در اختیار فرد گذاشته می شود که او را قادر می کند علائم مربوط به مجموعه سوم را با علائم مربوط به مجموعه های قبلی ربط دهد و این دستورات به اویاد می دهند که در پاسخ به انواع معینی از اشکال مجموعه سوم چگونه علائم معین چینی همراه با انواع معینی از اشکال را به بیرون از اتاق بفرستد. مجموعه اول که برای فرد فرستاده می شود، “حروف”، مجموعه دوم ” داستان”، و مجموعه سوم ” سؤالات” هستند ولی فرد آزمون شونده از این موضوع بی اطلاع است. همچنین علائمی که او به بیرون می فرستد “پاسخ به سؤالات” و مجموعه قواعد به زبان انگلیسی، “برنامه” هستند. هر شخصی که پاسخ های فرد آزمون شونده را ملاحظه می کند، نمی تواند بگوید که او یک کلمه هم به زبان چینی صحبت نمی کند. در اینجا فرد آزمونگر دقیقاً مثل یک برنامه کامپیوتری عمل می کند. ادعای هوش مصنوعی قوی آن است که کامپیوتر برنامه ریزی شده داستان ها را می فهمد و برنامه از جهتی فهم انسانی را تبیین می کند.]328
سیستم هایی وجود دارند که هم زمان شنوایی، بینایی و لامسه را پردازش می کنند و هم عمل کردن و سخن گفتن را بطور همزمان آموزش می بینند. پس کلماتی که توسط چنین سیستم هایی فراگرفته شده اند، در اعمال خود روبات و اعمالی که دیگران انجام می دهند و او می بیند، “اساسی” هستند. حتی ظرفیت های انتزاعی، مثل حساب، ممکن است در توانایی حرکت اشیا برای تشکیل خوشه های ادراکی، اساسی باشند. مردم در ابتدا گزاره 4=2+2 را نه به عنوان یک گزاره انتزاعی ریاضی، بلکه بعنوان نتیجه واقعی خلق دو گروه از اشیاء و محاسبه آنها، شاید حتی با استفاده از انگشتانشان، درک می کنند. تعاملات فیزیکی با مداد و کاغذ ممکن است ظرفیت های انتزاعی بیشتری را بنا کند، مثل جبر. بسیاری از محققان معتقدند که وقتی ظرفیت های پردازش اطلاعات به این روش پایه گذاری شوند، فاصله بین فهم شبه انسانی واقعی و فهم ماشینی کم اهمیت تر می شود، حتی شاید تبدیل شود به امری نامربوط.
سرل، نوعی استفاده ماهرانه از سمبل ها را به طور منفصل و مجزا را در اتاق چینی تصور کرد که درک زبان واقعی را بطور عملی غیر ممکن می ساخت. “اگر تمام مراجعی که در سمبل ها وجود دارند در سیستم سمبلیک درونی باشند، آنگاه اهمیت آنها دقیقاً مثل اهمیت تعاریف کتاب لغت، مدور می شود. همانطور که شما زنجیره تعریف را دنبال می کنید، اغلب به همان کلمه اصلی برمی گردید که در حال تلاش برای فهم آن بودید. سیستم های شناختی واقعی، در جهان اشیاء فیزیکی و فاعل های اجتماعی مجسم شده اند و قرار دارند. کلمات، مفاهیم و سمبل هایی که توسط چنین سیستم هایی مورد استفاده قرار می گیرند در تعاملات آنها با اشیا و فاعل های دیگر پایه گذاری شده اند. “329
با انتشار آثار رادنی بروکس، مدیر لابراتوار مصنوعی ام آی تی، نظریه شناخت مجسم شده، تأثیری انقلابی روی توسعه عملی و بازرگانی روباتها داشته است. شرکت بروکس به نام “آی روبوت”330، جاروبرقی روباتیک “رومبا”331 و روبات نظامی “پک بوت”332را (که بیش از سیصد تا از آن، از جمله “اسکوبی- دو”333 در عراق مستقر هستند) تولید می کند. در نیمه دهه 1980، بروکس، در لابراتوار هوش مصنوعی شروع کرد به ساخت روباتهای شبیه حشره، که بطور قابل توجهی در اتاقها و حول اشیاء حرکت می کرند.
برای مثال، “جنقیس”334، یک روبات شبیه مورچه دارای شش پا قادر بود تا روی موانع مختلف راه برود. نبوغ بروکس آن بود که به جای استفاده از یک پردازشگر مرکزی برای هماهنگ کردن همه فعالیت ها، برای هر کدام از پاها قابلیت کنترل مستقل قائل شد. او بدان وسیله روباتهای خیلی محکمی را تولید کرد که می توانستند مطابق فشارها و هل دادن های مختلف تنظیم شوند و در زمین های مختلف حرکت

پایان نامه
Previous Entries دانلود پایان نامه درباره خودمختاری، اراده آزاد، مسئولیت پذیری، معرفت شناختی Next Entries دانلود پایان نامه درباره اصول اخلاقی، رفتار انسان، اخلاق کاربردی، اخلاق کار