دانلود پایان نامه درباره هوش مصنوعی، اسباب بازی، کدهای اخلاقی، زندگی روزمره

دانلود پایان نامه ارشد

M249 بود و در دسامبر 2005، بی بی سی گزارش کرد که این روباتها برای برپایی جنگ علیه شورشیان در عراق مستقر شدند. SWORDS به صورت الکترونیکی به هدف توجه دارد، اگر چه تصمیم واقعی شلیک، تحت کنترل از راه دور انسان متصدی است. در پایان سال 2007، گزارش هایی وجود داشتند مبنی بر اینکه از روباتهای SWORDS به زودی در جنگ استفاده می شود. هنوز هیچ گزارشی از کاربرد واقعی آنها آشکار نشده است. با این وجود، در پایان ژانویه 2008 یک موشک شکارچی قابل کنترل از راه دور توانست طبق گزارشات بیشتر از دو جین از اعضای القاعده را در مقرشان در داخل پاکستان بکشد.
طبق دانش ما، سیستم های کاملاً خودکاری که تفنگ یا بمب حمل می کنند، اجازه شلیک گلوله ندارند. اما اساس چنین سیستم هایی ساده و الزام آور است- روباتها نیاز به انسان را در جنگ کاهش می دهند و بنابراین زندگی سربازان، دریانوردان و خلبانان را نجات می دهند. بعلاوه حتی وسایل نقلیه ای که از راه دور عمل می کنند مثل موشک شکارچی، آنقدر پیچیده هستند که به 4 نفر نیازمندند تا یک عملیات را انجام دهند. کارکردهای کشتیرانی، پرواز، و هدف گیری هر کدام نیازمند پرسنلی هستند که در سطح بالایی آموزش دیده باشند. به طور واضح، آن جناحی که می تواند نیاز به پرسنل خود را بواسطه خودمختار کردن روباتهایش کاهش دهد، سود خواهد کرد. ارتش از قبل در حال آزمایش روباتهای تدارکاتی است که در میدان جنگ بدون متصدی انسانی حرکت می کنند.
ماشین های جنگنده روباتیک به خاطر نامناسب بودن قانون نخست آسیموف علیه صدمه رساندن به انسانها یا کشتن آنها، از کار باز داشته نمی شوند. مسئله واضح است. زمانی که روباتها اختیار کشتن را دارند، تصمیمات آنی لازم هستند تا تعیین کنند که آیا کشتن هر فرد خاص، توجیه شده است یا نه. خود آسیموف، زمانی که قانون صفرم خود را به سه قانون دیگر اضافه کرد، درها را به روی این امکان گشود که یک روبات، انسان را بخاطر حمایت کلی از انسانیت بکشد: “یک روبات ممکن است به انسانیت آسیبی نرساند، و یا اینکه به واسطه منفعل بودن خود، اجازه دهد تا انسانیت آسیب ببیند.”168 .در زمان نیاز به تکمیل توانایی تصمیم گیری اخلاقی در مورد اینکه استفاده از نیروی کشنده کی، کجا و به سمت چه کسی قابل پذیرش است، هیچ راهی وجود ندارد که بتوانیم احتمال اینکه ماشین های جنگی روباتیک صدمه غیر قابل پذیرشی موجب شوند را کاهش دهیم. بعلاوه روبات ها، فقط جنگنده های دشمن را نمی کشند بلکه مسئول مرگ های غیر نظامی (آسیب موازی) و مرگ سربازان متحد (شلیک دوستانه) هم هستند. حتی اگر خسارات موازی قابل توجیه باشند، درمشاهدات عینی بزرگتر سیستم های خودمختار نیاز دارند تا قدرت سنجش انتخاب ها را بدست بیاورند. در مورد مشکل تضمین کردن امنیت و رفتار اخلاقی، لازم است درباره اینکه چه موقع باید سیستم های حامل اسلحه را مستقر کنیم، به شدت فکر کنیم. پاسخ بعید است که صراحتاً کلمه “هرگز” باشد.
مسئله دیگر آن است که با وجود تمایل طبیعی انسان به شبیه انسان کردن اشیاء، سربازان در قید و بند روبات هایشان هستند. “کالین انجل”169، مدیر اجرایی مؤسسه “آی روبوت”170، سازنده روبات “پک بوت”171، که در پیدا کردن و خنثی سازی ابزارهای منفجره در عراق به کار گرفته می شود، داستان سرباز امریکایی را تعریف می کند که التماس می کرد که شرکت، روباتی به نام “اسکوبی دو”172 را تعمیر کند، اسمی که یگان او روی آن پک بوت گذاشته بودند، که بعد از به پایان رساندن سی و پنجمین مأموریت موفق خود، از بین رفته بود. انجل تعریف می کند که سرباز به آی روبوت التماس می کرد که لطفاً اسکوبی دو را تعمیر کنید، زیرا او جان من را نجات داد.
یک امر کاملاً متفاوت از ساختن سربازان مصنوعی، ساخت مخلوقات مصنوعی، دوستان و همراهان است- روباتهایی که برای تعامل با انسان طراحی شده اند.
طراحان اسباب بازیهای جنسی، بطور خاص در اختصاص دادن آخرین فن آوری برای تحریک مشتریان خود خوب هستند. رابطه با اسباب بازیهای روباتیک جنسی منجر به رفتار ضد اجتماعی نابجا می شود و تحقیقات آتی هم ممکن است این موضوع را تصدیق کنند.
استفاده از روباتها برای حل مشکل تنهایی، فراتر از استفاده از آنها برای کسب رضایت آنی از عمل جنسی است. محققان در حال کار کردن روی روباتهایی هستند که می توانند حالات عاطفی را از طریق بیانات صورت و دیگر اشارات شفاهی و غیر شفاهی بخوانند تا توهم همدل بودن را خلق کنند. “دیوید لوی” ،173درکتاب خود در سال 2007 بنام عشق و عمل جنسی با روباتها (Love and Sex with Robots) می نویسد: ” انقلاب روابط انسان- روبات، استدلال می کند که خط سیر تحقیقی جاری، منجر به رابطه طولانی مدت و حتی ازدواج انسانها و روباتها خواهد شد. اما عمیق کردن قید و بندهای عاطفی، فرصت هایی در اختیار طراحان بی پروا و حتی شاید روباتهای شبه هوشمند آینده قرارمی دهد تا از کاربران ابله بهره برداری کنند. البته موضوعاتی مرتبط با شکلهای رفتار جنسی هم وجود دارند که انجمن های مختلف، روابط انسان- روبات را در آنها از نظر اخلاقی بررسی خواهند کرد.”174آیا لازم خواهد بود کارهایی را که روبات همراه و همدم انسان، می تواند و نمی تواند انجام دهد را تنظیم کنیم؟ شاید جامعه باید آمادگی آن را پیدا کند تا نتایج اجتماعی اعمالی که همدمان خبره و روباتیک ما به بار می آورند را بررسی کند.
جذابیت دیگر روباتها چشم انداز داشتن خدمتکاران یا بردگانی است که 7 ساعت از 24 ساعت را کار می کنند و نیازی نیست به آنها مزدی پرداخت شود- سود بردن از داشتن بردگان بدون درگیر شدن با چالش های برده داری. کلمه روبات اولین بار توسط “جوزف و کارل کپک”175،در سال 1920 از کلمه چکسلواکی آن روبوتا176، جعل شد که به معنای کارگری یا بردگی است. رونالد آرکین می پرسد آیا مشکلات اخلاقی ذاتی برده داری با استفاده از روباتها به عنوان برده، از بین رفته است یا نه. هزاران سال انسانها یکدیگر را در یک بردگی ناخواسته نگه می داشتند، و منسوخ کردن برده داری فقط در طول 150 سال گذشته صورت گرفته است. منسوخ کردن برده داری یک اصل اخلاقی جوان و شاید هنوز ضعیف است، بویژه با وجود تعداد بیشماری از مردم سراسر جهان که هنوز بعنوان شاگرد کارگر به خدمت گرفته می شوند. آرکین این امر را می سنجد که آیا پذیرش روباتهای خدمتکار، بردگی را در جوامعی که بطور رسمی این عمل را منسوخ کرده اند، دوباره برقرارمی کند یا نه، او از خود می پرسد که آیا این امر می تواند بردگی انسان را محو کند یا منجر به تنبلی انسان می شود.
روبات ها به عنوان جانشینان انسان های کارگر، از قبل در روباتیک صنعتی، وجود داشته اند. از نظر انجمن روباتی ژاپن، هدف از ایجاد روباتهای خدماتی مراقبت از افراد مسن و ناتوان در طول چند سال آینده است. روباتها، بدون توجه به حرف کسانی که می گویند روباتهای برده ایده بدی هستند، بعنوان ابزار ساخته خواهند شد. امکان ندارد کسی یک روبات رومبا177 را با یک انسان اشتباه بگیرد، اما هر چه ظاهر روبات ها اجتماعی تر می شود و ویژگیها و تواناییهای شبه انسانی یا شبیه حیوانات خانگی را کسب می کنند، قابلیت استفاده و فریبندگی آنها هم بیشتر می شود. بعلاوه، با محو شدن تمایز بین انسان ها، سازواره های مجازی و روباتها، موانع برده داری هم یکی یکی محو می شوند.
1-6-1-7 روباتها چه حقوقی بر انسانها دارند؟
در آینده مسائل جدیدی وجود خواهند داشت، از قبیل آن که خود روباتها بالأخره احساسات و عواطف خود را خواهند داشت و هوش آگاهی و درک از خود بدست خواهند آورد. آیا روباتی که احساس درد می کند حق خواهد داشت تا از انسان تقاضا کند که از بدرفتاری با او دست بردارد؟ آیا روباتی با درجه درک خبره آزادانه خواهد توانست بگوید که کار نخواهد کرد؟ یا علی رغم نمونه های عینی، آیا مردم به اصرار روی این موضوع که روباتها، نژادی از شکل زندگی درجه پایین هستند، و احساسات و سطح بالاتری از تواناییهای ذهنی یا آگاهی را ندارند، ادامه خواهند داد. در آینده نزدیک بیشتر امور بوسیله لوازم برقی روباتیک مجزا و تکنولوژی جاسازی شده انجام خواهد شد. میکرو پردازش گرها در یخچالها، قوطی های زباله و پارچه سازی، کارهای انسانها را اصلاح خواهند کرد. روباتهای خانگی ای که بگونه ای طراحی شده اند که هم همدم انسان باشند و هم برده او، در آینده توسط مهندسان ساخته خواهند شد.
1-6-2 تکنولوژی به صورت جزئی چه مسائل اخلاقی ای را در زندگی انسان به وجود می آورد؟
جنبه دیگر مسائل اخلاقی ای که هوش مصنوعی و استفاده از تکنولوژی مطرح می کنند، مسائلی هستند که با بکارگیری آنها در زندگی روزمره برای انسان ایجاد می شود. مثلا استفاده از سیستم های هوشمند و خبره، مستلزم بروز مشکلاتی در بخش هایی از زندگی اجتماعی انسان است که این سیستم ها در آن بخش ها بکار گرفته می شوند. انواع دیگر هوش مصنوعی، از جمله تکنولوژی بینایی کامپیوتری، پردازش زبان طبیعی، بازیها و …هر کدام به نوبه خود مسائل اخلاقی ای را مطرح می کنند. رشته اخلاق کامپیوتر هم مسائل اخلاقی خاص استفاده از کامپیوترها را بررسی می کند. مسائلی از قبیل حفظ حريم خصوصي، مالكيت، و حقوق شهروندي در عصر ديجيتال، تسهيل كردن تجارت كامپيوتر مبنا، جلوگيري از هك كردن، كرم ها و ويروس ها، و سوء استفاده هاي ديگر از تكنولوژي. تكنولوژي هاي جديد زمينه جنايت ديجيتالي را فراهم كرده اند، دسترسي افراد كوچك را به عكس هاي محرك آسان كرده اند، و وقت مردم را با تبليغات و ايميل هاي ناخواسته دزديده اند.
1-6-2-1 اخلاق کامپیوتر178
علاوه بر مسائل مربوط به اخلاق در هوش مصنوعی، یکی از حوزه هایی که در این تحقیق مورد بررسی قرار می گیرد، حوزه اخلاق کامپیوتر است. اخلاق کامپیوتر به بررسی مسائل اخلاقی و مشکلاتی می پردازد که صرفاً کامپیوترها و شبکه های کامپیوتری مسبب آن هستند. همچنین حوزه اخلاق کامپیوتر به بررسی مسائلی می پردازد که در آنها متخصصان اخلاق از کدهای اخلاقی و استانداردهایی استفاده می کنند تا عملکرد خوبی داشته باشند. از اسامی دیگری چون ” اخلاق سایبری”179 یا ” اخلاق اینترنتی”180 استفاده می کنند تا جنبه های خاصی از اخلاق کامپیوتر را بررسی کنند.
دردهه 1990، “مور”، مفهوم “ارزشهای هسته ای”181 را وارد حوزه اخلاق کامپیوتر می کند. طبق نظر مور، برخی ارزشهای انسانی – مثل زندگی، سلامتی، شادی، امنیت، رفاه، اقبال و دانش – آنقدر اهمیت دارند که بقای جامعه به آنها بستگی دارد. به راستی اگر یک جامعه به ” ارزشهای هسته ای” اهمیت ندهد، خیلی زود از بین می رود. مور از واژه ” ارزشهای هسته ای” برای موضوعات اخلاق کامپیوتر، مثل حریم خصوصی و امنیت استفاده می کند182.
از جمله حوزه هایی که مسائل مربوط به اخلاق کامپیوتر در ان مطرح می شوند عبارتند از:
1-6-2-1-1 کامپیوتر در محیط کاری183:
کامپیوترها به عنوان یک “ابزار جهانی”184 که در واقع می توانند هر کاری را انجام دهند، تهدیدی برای مشاغل به حساب می آیند. گرچه آنها گاه گاهی نیاز به تعمیر دارند، اما لازم نیست بخوابند، خسته نمی شوند، به خانه نمی روند، مریض نمی شوند، و یا برای استراحت مرخصی نمی گیرند. کامپیوترها در انجام امور از انسانها کارآمدتر هستند. بنابراین انگیزه های اقتصادی زیادی وجود دارد که کامپیوترها را جایگزین انسانها کنیم. در واقع در جهان صنعتی، از قبل کامپیوترها در بسیاری از مشاغل از جمله صندوقداری بانک، کارگری، اپراتورتلفن، تایپیست، و غیره، جانشین انسانها شده اند. برخی استدلال می کنند که انسان های زیادی وجود دارند که در فقر زندگی می کنند و شغل ندارند و به همین علت نباید کارگران مکانیکی را جایگزین آنها کنیم. اما دورنمای استخدام افراد خیلی هم بد نیست. صنعت، مشاغل جدید و متنوعی را خلق کرده است، مثل مهندس نرم افزار و سخت افزار، تحلیل گر سیستم، طراح شبکه، کارمند فروش کامپیوتر و غیره. بنابراین در کوتاه مدت به نظر می رسد که کامپیوتر باعث بیکاری می شود، اما در بلند مدت می بینیم که تکنولوژی ،بیشتر از تعداد مشاغلی که خذف کرده، شغل جدید خلق

پایان نامه
Previous Entries دانلود پایان نامه درباره اسباب بازی، ایالات متحده، خانه سالمندان، مصرف کنندگان Next Entries دانلود پایان نامه درباره حریم خصوصی، مالکیت فکری، ایالات متحده، سیستم های خبره