دانلود پایان نامه درباره هوش مصنوعی، سیستم های خبره، بیمارستان، کرامت انسان

دانلود پایان نامه ارشد

آنها استفاده می شود، می توان بازی ها، سیستم های خبره، درک کامپیوتر، پردازش زبان طبیعی و شبکه های عصبی را نام برد.
مسائل اخلاقی ای که با پیشرفت تکنولوژی روبروی ما قرار می گیرند را در دو شاخه می توان بررسی کرد:
اول مسائل اخلاقی کلی ای که هوش مصنوعی برای ماهیت، فرهنگ و کرامت انسانی به وجود می آورند، و شاخه دوم، مسائلی است که استفاده های گوناگون از هوش مصنوعی، به صورت جزئی برای سلامت انسان به وجود می آورند.
شاخه اول سؤالاتی را در بر می گیرند از جمله اینکه: تکنولوژی چه تأثیری روی انسان و کرامت انسانی او می گذارد؟در آینده که ما با پیشرفت های فزاینده تکنولوژی مواجه خواهیم شد، چه شکلی خواهیم داشت و چه نوع انسان هایی خواهیم بود؟
تکنولوژی، قدرت فریب دادن انسان را دارد. همانطور که انسان ها در برخورد با حیوانات خانگی خود، طوری تعامل می کنند که گویی آنها انسان هستند، در مواجهه با تکنولوژی هم با آن مثل انسان تعامل می کنند. به این ترتیب انسان ها می توانند نسبت به روبات های خود حالت عاطفی داشته باشند و حتی به آنها وابسته باشند. شاید بتوان گفت روزی می رسد که روبات ها می توانند نقش همدم عاطفی انسان ها را برای آنها بازی کنند. اما از طرفی ممکن است تکنولوژی پیشرفته، باعث ایجاد احساس حقارت در انسان شود و انسان احساس کند که توانایی هایش در مقایسه با توانایی های تکنولوژی، بسیار ناچیز هستند. اما در واقع توسعه تکنولوژ ی، به دنبال خدمت به انسان است، نه زایل کردن کرامت او. گاهی اتفاق می افتد که موجودات مصنوعی، از طرف انسان ها، مورد سوء استفاده قرار می گیرند، مثل روبات هایی که برای خدمتکاری انسان ساخته می شوند و از آنها برای انجام کارهای سخت استفاده شده، با آنها مثل برده رفتار می شود. گاهی پیشرفت تکنولوژی، در خدمت توسعه نظامی قرار می گیرد و اسلحه هایی ساخته می شوند که بکار بردن آنها، بدون آنکه از قبل اصول اخلاقی در آنها جاسازی شوند، منجر خواهد شد به بروز فجایع انسانی. موضوع دیگر آن است که آیا روبات ها بر انسان ها حقی دارند و باید حقوق آنها از طرف انسان ها رعایت شود؟
شاخه دوم مسائل اخلاقی، حوزه های گوناگونی را در بر می گیرد. از جمله این حوزه ها، اخلاق کامپیوتر است. اخلاق کامپیوتر به بررسی مسائل اخلاقی و مشکلاتی می پردازد که صرفاً کامپیوترها و شبکه های کامپیوتری مسبب آن هستند. مسائل اخلاقی کامپیوترها در محیط کاری، جنایات کامپیوتری، حریم خصوصی و گمنامی، مالکیت فکری و مسئولیت حرفه ای، در این شاخه از علم اخلاق بررسی می شوند.
استفاده از سیستم های خبره، مسائل اخلاقی گوناگونی را ایجاد می کند. یک نمونه از آنها، سیستم های پشتیبان تصمیم گیری هستند که در بیمارستان ها بکار می روند. برخی معتقدند که بکارگیری آنها باعث می شود انسانها از زیر بار مسئولیت اخلاقی شانه خالی کنند و این احتمال وجود دارد که آنها بتوانند فرآیند تصمیم گیری را کنترل کنند. همچنین نمی توان از خطاهای این سیستم ها چشم پوشی کرد، زیرا جان افراد زیادی را به خطر می اندازند. با عمومیت یافتن اینترنت در عصرIT و با افزایش دسترسی به اطلاعات، حریم خصوصی افراد به خطر می افتد. روی آوردن افراد به تله پزشکی و پزشکی سایبری، با وجود اینکه فوایدی دارد، از جمله اینکه افراد به خاطر گمنامی راحت تر می توانند مسائل خود را بازگو کنند ، بدون آنکه نگران حفظ حیثیت خود باشند، اما رابطه رسمی بین پزشک و بیمار را مخدوش می کند و ممکن است باعث شود پزشکان به خاطر منافع مادی بیشتر، مسئولیت خود را به خوبی انجام ندهند. استفاده از هوش مصنوعی در بیمارستان ها و سایر مناطق، هزینه ها را کاهش می دهد، اما باعث می شود انسان به تکنولوژی وابسته شود. به علاوه نمی توان تشخیص داد که چه موقع باید به تکنولوژی اعتماد کرد و چه موقع نباید این کار را انجام داد. بازی های کامپیوتری، آنطور که گفته شده، دارای محتوای خشن هستند و خشونت را در افراد ترویج می کنند. این بازیها که عمدتاً داستان های جنایی دارند، حس بی رحمی انسان را تقویت می کنند.
استفاده از تکنولوژی خطراتی را در بر دارد که باید طراحان این خطرات را پیش بینی کرده و از بروز آنها جلوگیری کنند. اما خطرات بالقوه ای هم وجود خواهند داشت که قابل پیش بینی نیستند. مردم عموماً خیلی سخت می توانند به تکنولوژی اعتماد کنند، و با اینکه موارد خطرناک تری هم در زندگی آنها وجود دارد، از جمله سیگار کشیدن، ولی آنها مثلاً استفاده از اشعه ایکس را وحشتناک تر از سیگار کشیدن می دانند. ما با قوه مخرب سیستم های AI نیز سرو کار داریم. قوه ای که علاقه به فعال کردن رشته اخلاق مصنوعی را بر می انگیزد. ما هیچ دلیلی نمی بینیم که تنها به خاطر موضوعاتی که اخیراً بوسیله منتقدان اجتماعی آینده نگر مطرح شده اند، تحقیقات خود را متوقف کنیم. اما ما معتقدیم که اکنون ما فرصتهایی داریم برای ارزیابی دوباره آنکه آیا خطرات توسعه AI مهمتر از فواید آن است یا نه،و در آینده هم چنین فرصتهایی خواهیم داشت. در همین زمان توسعه AMAها جایگاه مهمی را برای تشریح اینکه چگونه خطرات مطرح شده توسط سیستم های خودکار می توانند کنترل شوند،فراهم می کند.
همانطور که تکنولوژی روباتیک فراگیرتر می شود، حوزه تعاملات انسان- روبات هم رشد خواهد کرد. همانطور که این ماشین ها تعاملی تر می شوند، آنها در موقعیت یک شخصیت اخلاقی قرار خواهند گرفت، و تعامل ما با این شخصیت ممکن است شبیه تعاملاتی باشد که با حیوانات با احساس داریم. در واقع ماشین های هوشمند ما، قدرت خلق موقعیت های اخلاقی خواهند داشت. در آینده نه چندان دور شاهد ظهور روبات های خودکار خواهیم بود که قدرت خلق استدلال اخلاقی خواهند داشت و دارای حقوق اخلاقی و کمی مسئولیت اخلاقی خواهند بود. مؤلفه اصلی در ساخت و طراحی این روبات های خودکار آن است که آنها داری استقلال هستند و بدون نیاز به برنامه ریز و یا کاربر تصمیمات اخلاقی می گیرند.
در مورد فاعلیت اخلاقی روبات ها دیدگاه های متنوعی وجود دارد. فلوریدی و ساندرز در مورد فاعلیت اخلاقی روبات ها عقیده دارند که باید سطح معقولی از انتزاع وجود داشته باشد که در آن سطح ما تصدیق کنیم که ماشین تمایلات خودکار و مسئولیت دارد. اگر روبات را بتوان به عنوان موجودی خودکار در نظر گرفت، آنگاه احتمالاً به حالات اخلاقی انسان ها می رسد و یا از آنها پیشی می گیرد.
ویژگی های محوری ای که فاعل های مصنوعی هوشمند باید داشته باشند تا اخلاقی به حساب بیایند، خودمختاری و اراده آزاد، درک و آگاهی هستند. اما در چه شرایطی می توان گفت که ماشین های ما از خودمختاری و اراده آزاد برخوردارند؟
دانیل دنت، معتقد است که توانایی ملاحظه انتخابهای چندگانه و انتخاب از بین آنها، تنها نوعی از آزادی است که انسانها دارند، و تنها نوعی است که شایسته است انسانها آن را داشته باشند. بسط انتخاب در بحث دنت در مورد تکامل آزادی انسان، فقط یک موضوع نیست بلکه یک اصل مرکزی در تکامل و توسعه ماشینهای اخلاقی است. کریس لانگ، معتقد است که بسط انتخاب برای یک کامپیوتری که با روش مبتنی بر جستجو می آموزد، منجر به سیستمی می شود که احتمالاً بعنوان فاعل اخلاقی دوستدار انسان عمل خواهد کرد. دیدگاه خوشبینانه او مبتنی است بر برداشتی از یادگیری ماشینی که بوسیله آن “تحقیق عقلانی پیرامون استراتژیهایی که موجب بالا بردن نرخی می شوند که طبق آن نرخ، فرد با ایده های نابی مواجه می شود که به نوبت، موجب بالا بردن نرخ تنوع و تعامل گروهی می شوند که فرد در آن گروه مشارکت دارد.” طبق نظر لانگ، این رویکرد به طور کلی آزادی ای را در جهان افزایش می دهد، که معمولاً هم حفظ زندگی را دربر دارد و هم قدرتمند کردن مردم را- و اساساً در بر گیرنده همه چیزهایی که ما آنها را بطور کلی اخلاقی می دانیم، هستند. ماشینهای اخلاقی حتی اگر از انسان، برتر هم باشند، باید برای تعامل با انسان ارزش قائل شوند، زیرا از دست دادن چنین تعاملی موجب کاهش تنوع محیط آنها می شود. برای عملکرد بهتر در محتوای اخلاق انسانی، AMAها نیازمند استعداد تعیین انتخابهای چندگانه و ملاحظه جنبه های ارزیابانه متفاوت خواهند بود.
یک ماشین هوشمند تحت چه شرایطی دارای آگاهی و درک واقعی است؟
والاچ و آلن، برای تبیین چگونگی درک ماشینها از استدلال”شناخت تجسم یافته” استفاده می کنند از نظر آنها “اتاق چینی سرل”، صفر پایه برای ادامه مناظرات پیرامون درک ماشین است. سرل، نوعی استفاده ماهرانه از سمبل ها را به طور منفصل و مجزا در اتاق چینی تصور کرد که درک زبان واقعی را بطور عملی غیر ممکن می ساخت. “اگر تمام مراجعی که در سمبل ها وجود دارند در سیستم سمبلیک درونی باشند، آنگاه اهمیت آنها دقیقاً مثل اهمیت تعاریف کتاب لغت، مدور می شود. همانطور که شما زنجیره تعریف را دنبال می کنید، اغلب به همان کلمه اصلی برمی گردید که در حال تلاش برای فهم آن بودید. سیستم های شناختی واقعی، در جهان اشیاء فیزیکی و فاعل های اجتماعی مجسم شده اند و قرار دارند. کلمات، مفاهیم و سمبل هایی که توسط چنین سیستم هایی مورد استفاده قرار می گیرند در تعاملات آنها با اشیا و فاعل های دیگر پایه گذاری شده اند. رادنی بروکس ، نشان داد که می توان روبات هایی داشت که بدون داشتن مدل درونی در خود برای کنترل حرکات، در محیط ق و رار گیرند و با تعاملات ساده خود با محیط، مجموعاً رفتارهای پیچیده از خود بروز دهند. نظریه شناخت تجسم یافته، جایگزینی است برای دیدگاه کسانی که می گویند مغز باید یک نمایش کاملاً درونی از جهان را خلق کند، یک مدل کامل یا نمونه مشابهی از جهان که همه جزئیات لازم برای استدلال درباره چگونگی عمل در جهان را در بر داشته باشد. فهم اهمیت تجسم یافتن و قرار گرفتن در جهان، دو دیدگاه مهم را به وجود می آورد. اول آنکه، بیشتر عوامل اطلاعاتی باید از قبل در محیطی ساخته شوند که در آن حرکت می کنند، و باعث می شوند که لازم نباشد تا این اطلاعات به صورت درونی بازتولید و یا شبیه سازی شوند؛ یعنی همیشه لازم نیست تا فرد یک مدل ذهنی از جهان را بسازد. دوم آنکه توانائیهای مردم برای نشان دادن واکنشی همراه با درک مسلم به محیط های فیزیکی و اجتماعی خود، بیشتر مدیون ساختار و طراحی بدن ها اعضا و حواس آنهاست که آنها را قادر می کند تا بیشتر پاسخ های خود را بدون اینکه نیازی به آگاهانه فکر کردن یا انعکاس داشته باشند، پردازش کنند. از نظرانسانها رفتار اخلاقی یعنی منطبق شدن با موقعیت های اجتماعی در زمان وقوع، به صورتی که تلاش می کنند تا با نیازها، ارزشها و انتظاراتی که از گروهها دارند مواجه شوند. فاعل های اخلاقی مصنوعی باید در روابط خود به همین روش رفتار کنند. در محتوای این بحث، معنای درک چیست؟ اگر معنای آن استعداد واکنش نشان دادن مناسب و سازگار با محیط اجتماعی و فیزیکی باشد، ما هیچ دلیلی نمی بینیم که فکر کنیم که کامپیوترهایی که بطور مناسب تجسم یافته و بکار گرفته شده اند، نمی توانند این عکس العمل ها را داشته باشند.
آگاهی ماشین بعنوان یک امر فرعی اختصاصی در AI در حال توسعه است. ایگور الکساندر می گوید چیزهایی که آگاهی نیاز دارد، می توانند به قواعد کلی ای تقسیم شوند که 5 حوزه را پوشش می دهند: “احساس از خود، تخیل، توجه متمرکز، پیشبرد برنامه ریزی، و عاطفه”. هر کدام از اینها به نوبت مخلوط یا مجموعه ای از مهارتهای شناختی سطح پایین هستند. اوون هالند و راد گودمن جهت ساخت یک سیستم آگاه، از انتها شروع به کار می کنند و به سمت بالا حرکت می کنند، و هر مهارتی را بعد از مهارت دیگر به روبات تجسم یافته اضافه می کنند. آنها معتقدند که “این فرآیند در نهایت، جهان روبات و رفتار خود روبات را به صورت درونی نمایش می دهد، و این امر منجر به ایجاد پدیده ای شبیه آگاهی خواهد شد.”
مطالعه اخلاق معمولاً متمرکز است بر هنجارها، استانداردهای از بالا به پایین و رویکردهای نظری به قضاوت اخلاقی. از تئوری عدالت سقراط گرفته تا پروژه کانت درباره آنکه اخلاق از عقل تنها سرچشمه می گیرد، مباحث اخلاقی نوعاً بر

پایان نامه
Previous Entries دانلود پایان نامه درباره هوش مصنوعی، پیوندگرایی، قضاوت اخلاقی، شبکه های عصبی Next Entries دانلود پایان نامه درباره پیوندگرایی، اصول اخلاقی، فضایل اخلاقی، شبیه سازی