دانلود پایان نامه درباره هوش مصنوعی، کرامت انسان، شبکه های عصبی، فلسفه تکنولوژی

دانلود پایان نامه ارشد

طریق آنها اثر انگشت، خصوصیات چهره و دستخط را تشخیص می دهند، ظاهراً بر الگوی شبکه عصبی ارجحیت دارند.
شبکه های عصبی والگوهای ژنتیکی را “شیوه های نامنتظر” خود سازمان ده141- می خوانند، زیرا نتیجه کار قابل پیش بینی نیست ودر واقع اغلب برای طراحان خود این برنامه هم غافلگیرکننده است.
1-5-5-2 یادگیری
“یادگیری عبارت است از تغییری در عملکرد یک فرد در رابطه با شرایط بخصوص که پس از تجربیات مکرر در آن شرایط بدست می آید.، البته به این شرط که این تغییر رفتار را نتوان بر اساس تمایلات واکنشی ذاتی، بلوغ یا وضعیت های موقتی فرد( مثل خستگی، مصرف داروهای مخدر و غیره) توجیه نمود.”142
یادگیری ماشین از ابتدا امری محوری در AI بوده است. یادگیری که تحت کنترل نباشد یعنی توانایی پیدا کردن الگوها از بین داده ها. یادگیری تحت کنترل هم شامل طبقه بندی می شود هم شامل استدلال. استدلال کردن مستلزم مجموعه ای از نمونه های عددی است و تلاش می کند تا یک کارکرد ممتد را پیدا کند که این کارکرد، خروجی ها را از ورودی ها استخراج کند. جستجوی مداوم در حوزه دانش، خودکارکردن روند یادگیری است، بطوریکه ماشینها بتوانند به جهان بیرون بروند (یا در مورد مبتدیان به درون شبکه وب) و اطلاعات جمع آوری کنند. این همان چیزی است که شبکه های عصبی آن را ممکن می سازند. هرگاه این شبکه به بهترین راه حل دست یابد الگوهای اتصالات عصبی مبین شکلی از دانش می شوند که آن را می توان برای استفاده در آینده ذخیره کرد.
1-6 مسائل اخلاقی در هوش مصنوعی
مسائل اخلاقی ای که با پیشرفت تکنولوژی پیش روی ما قرار خواهند گرفت، برای اولین بار توسط فيلسوفي به نام فیلیپا فوت143 در سال 1967 مطرح شدند. او مثال واگن های برقی را مطرح کرد. در این مثال او می گوید: ”یک واگن برقی در حال حرکت روی خط آهن به یک چند راهی می رسد. اگر واگن در همان مسیر خود حرکت کند، 5 نفر از کارگران که مشغول کار روی خط آهن هستند کشته خواهند شد. اگر راننده مسیر قطار را منحرف کند، یک نفر کشته خواهد شد. اگر شما این قطار را هدایت می کردید، چه می کردید؟ اگر یک روبات قطار را هدایت می کرد، چه می کرد؟ اگر یک ناظر بیرونی- و نه راننده- قدرت خراب کردن مسیر و تغییر مسیر قطار را داشت چه اتفاقی می افتاد؟ اگر یک ناظر بیرونی می توانست قطار را با پرتاب کردن یک “مرد چاق” روی خط آهن متوقف کند چه؟”144
با ظهور سیستم “قطارهای بدون راننده “145 در مترو لندن، پاریس و کپنهاگ، ماشین ها در جایگاه تصمیم گیریهای دو گانه ای قرار گرفتند که می توانستند بر مفاهیم مرگ یا زندگی دلالت داشته باشند. البته مهندسان معتقدند كه این سيستم ها ايمن هستند، اما مردم هميشه نسبت به آنها مشكوك بوده اند. امروزه خط مركزي قطارها در لندن اكنون در ايستگاه ها بوسيله كامپيوتر رانده مي شوند، اگرچه رانندگان انساني در جايگاه لوكوموتيوران در نقش “ناظر”146 باقي مي مانند. بيشتر مسافران معتقدند كه رانندگان انساني انعطاف پذيرتر هستند و بهتر از كامپيوترها مي توانند از عهده موقعيت هاي اضطراري برآيند. اما اين ممكن است غرور انساني باشد. مورتن سوندرگارد147، مسئول امنيت متروي كپنهاگ، مدعي است كه “قطارهاي خودكاردر شرايط عقب نشيني اضطراري، به خاطر سرعت تغيير جدول ساعات كاري، ايمن تر و انعطاف پذير تر هستند.”148
اما بيشتر مسافران همچنان فكر می کنند كه موقعيتهاي بحراني اي وراي حوزه هرگونه برنامه ريزي وجود دارند، جايي كه قضاوت انساني ترجيح خواهد داشت. در برخي از آن موقعيت ها، اين قضاوت، ملاحظات اخلاقي را در بر خواهد داشت.
این امر مستلزم آن است که مهندسان نرم افزاری تلاش کنند تا سیستم های خود را به ابعاد اخلاقی مجهز کنند. همانطور که اطلاعات قابل دسترسی سیستم های خودکار بیشتر می شود، معماهای اخلاقی ای که سیستم با آنها مواجه می شود هم پیچیده تر خواهد شد. کامپیوتری را تصور کنید که تشخیص می دهد که در یکی از مسیرهای خط آهن 5 کارگر هستند و در مسیر دیگر فقط یک نفر وجود دارد، اما آن یک نفر یک کارگر نیست، اما شهروند برجسته اي است كه سعادت و معيشت تعداد زيادي از خانواده ها به او بستگي دارد. مردم از كامپيوتر ها انتظار دارند در این شرایط بتوانند ارزشهای اخلاقی را در تصمیم گیریهای خود اعمال کنند. برخی از مهندسان در پاسخ به چنین چالشهایی راه حل “سکون” را پیشنهاد می کنند. مثلاً روباتی را در نظر بگیرید که وظیفه دارد موانع سر راه خود را بردارد. آیا نباید تشخیص دهد که مانع سر راهش یک بچه است، یک حیوان خانگی است یا یک جعبه خالی و طبق ارزیابی خود عمل کند؟
انگلبرگر149، احساس كرد كه چنين سيستمي در اعمال خود نيازي به استعداد عكس العمل نشان دادن ندارد. او گفت ” اگر چيزي سر راه وجود دارد، روبات تنها مي ايستد.”150 البته اين نوع سكون هم مي تواند مشكل ساز باشد، ممکن است با وظايف و اموري كه براي روبات تعريف شده اند تداخل داشته باشد، مثلاَ‌ با ارسال هر چند ساعت يك بار داروها براي فردي كه روبات به او خدمت مي كند.
اما ‌طراحان AMA نمي نوانند سكون را صرفاَ‌ به عنوان جايگزيني براي عمل خوب انتخاب كنند.
مسائل اخلاقی ای که با پیشرفت تکنولوژی و پیدایش هوش مصنوعی سر راه ما قرار می گیرند را می توان از دو جهت بررسی کرد. جهت اول، پرسش هایی است که هوش مصنوعی در حوزه اخلاق و انسانیت مطرح می کند، پرسش هایی از قبیل اینکه هوش مصنوعی چه تأثیری روی ذات انسان می گذارد و آیا کرامت انسانی با پیشرفت تکنولوژی از بین می رود؟ و یا اینکه برای فاعل های مصنوعی، خوب بودن به چه معناست و فاعل های مصنوعی در چه صورتی یک فاعل اخلاقی خوب خواهند بود؟
جهت دوم، مسایلی است که تکنولوژی کامپیوتری و هوش مصنوعی برای انسان ایجاد می کنند و خطراتی را بررسی می کند که استفاده از این ابزارها و تکنولوژی ها برای ما دارند. در اینجا ما به نوبت هر دو جنبه را بررسی می کنیم. رشته اخلاق کامپیوتر از قبل به بررسی مسائلی که استفاده از کامپیوترها برای انسان ایجاد می کنند، از قبیل حفظ حریم خصوصی، مالکیت فکری، جلوگیری از هک کردن و .. می پردازد و اخلاق ماشین هم در کنار اخلاق کامپیوتر مسائلی را مطرح می کند که کاربردها گوناگون هوش مصنوعی، از جمله سیستم های خبره، بینایی کامپیوتری، پردازش زبان طبیعی و … برای انسان ایجاد می کند.

1-6-1-تأثیر هوش مصنوعی بر اخلاق و انسانیت
1-6-1-1فاعل هاي مصنوعي خوب یا بد؟
سيستم هاي خودكار در حال آمدن هستند، چه مردم آنها را دوست داشته باشند و چه دوست نداشته باشند. آيا آنها اخلاقي خواهند بود؟ آيا آنها خوب خواهند بود؟
منظور ما از لغت ” خوب”، صرفاَ‌ به معناي موضوع خوب بودن ابزاري نيست – خوب بودن براي هدفي خاص. دیپ بلو151 يك شطرنج باز كامپيوتري خوب است، زيرا در بازي هاي شطرنج برنده مي شود، ‌اما اين معنايي نيست كه مورد نظر ما است. آن نوع رفتار خوب كه ممكن است مورد نياز سيستم هاي خودكار باشند،‌ به آساني مشخص نمی شود. مثلاً آيا يك فاعل خودمختار خوب، اگر نتواند بدون صدمه زدن به انسان ها كاري انجام دهد، به ناظر انساني هشدار مي دهد؟ وقتي ما درباره خوب در اين معنا صحبت مي كنيم،‌ وارد حوزه اخلاق مي شويم. یک فاعل هاي اخلاقي خوب، آن است که بتواند امکان صدمه زدن یا چشم پوشی از وظیفه را کشف کند و بتواند برای جلوگیری از وقوع آن و یا به حداقل رساندن چنین پیامدهایی قدم بردارد. دو راه براي انجام اين عمل وجود دارد: اول آنكه، شخص برنامه نويس ممكن است قادر باشد اعمال ممكن را پيش بيني كند و قوانيني را تهيه كند تا منجر به نتيجه دلخواه در محدوده شرايطي شود كه AMA ها بايد در آن شرايط قرار داشته باشند. دوم آنکه در نهايت شخص برنامه نويس ممكن است سيستم وسیع تری را بسازد كه اطلاعات جمع مي كند، تلاش مي كند تا نتايج عمل خود را پيش بيني كند، و پاسخي را براي چالش تنظيم مي كند. چنين سيستمي حتي ممكن است با راه حل هاي كاملاَ ‌نو يا خلاقانه به چالش هاي اخلاقي، پتانسيل غافلگير كردن برنامه نويسان خود را داشته باشد.
هر جا كه فرد به اين سؤال مي رسد كه آيا يك ماشين مي تواند به طور واقعي اخلاقي باشد، يك چالش مهندسي مطرح مي شود: چطور بايد فاعل هاي مصنوعي را به عمل واداشت گويي كه آنها فاعل هاي اخلاقي هستند. اگر بخواهیم به ماشين هاي چند منظوره بايد اعتماد كنیم، ‌بايد اين اطمينان وجود داشته باشد كه رفتار آنها هنجار مناسب را قانع كند. اين فراتر از امنيت سنتي محصول است. اگر سيستم خودمختار موظف است تا آسيب را به حداقل برساند، بايد از نتايج خطرناك احتمالي اعمالش هم “آگاه “152 باشد ، و بايد اعمالش را در پرتو اين “دانش”153 انتخاب كند، حتي اگر اين عبارات براي ماشين ها به طور استعاره اي به كار روند.

1-6-1-2 آیا انسانیت از کامپیوترها می خواهد که تصمیم های اخلاقی بگیرند؟
دسته دیگری از مسائل و نگرانیهایی که درباره پیشرفت تکنولوژی و استفاده از آن وجود دارند، نگرانیهای شخصی تر ماست درباره آنچه که این تکنولوژیها درباره خود انسانها آشکار می کنند. امروزه محوریت تکنولوژی بر ماهیت انسانی، موضوع اصلی در فلسفه انسانهاست، موضوعی که به دوره قبل از ارسطو مربوط می شود. فیلسوفان فن آوری، با نقشی سر و کار دارند که تکنولوژی در فرهنگ انسانها بازی می کند، از جمله ارزشها و سودهایی که در نتیجه تکنولوژی بدست می آید.
در اینجا دو مفهوم از ارزشها وجود دارند: از طرفی ارزشهای خارجی ای وجود دارند که چه تکنولوژی در رفاه عمومی مشارکت داشته باشد چه نداشته باشد ما با این ارزشها سر و کار داریم. آیا سلاح های هسته ای، شبیه سازی و هوش مصنوعی بطور کلی چیزهای خوبی هستند؟ هواپیماها، قطارها و اتومبیل ها چطور؟ از طرف دیگر، ارزشهای درونی وجود دارند که با این امر سرو کار دارند که تکنولوژی با معنای انسانیت چه می کند؟ آیا همانطور که اندی کلاک 154می گوید، ما” «سازواره های مجازی بطور طبیعی متولد شده»155 هستیم، که تکنولوژیها را آنقدرارتقا می دهیم، تا حدی که بطور واقعی با آنها یکی می شویم؟”156 آیا می توان تکنولوژی را به سادگی دورانداخت؟ یک تنش فلسفی بین خودمختاری انسان و وابستگی اش به تکنولوژی وجود دارد.
بعلاوه معنایی وجود دارد که طبق آن معنا، قبول کردن تکنولوژیهای جدید نه تنها استعداد انسان را خراب می کند، بلکه می تواند شخصیت و خودآگاهی انسان را تغییر دهد. شری ترکل157، جامعه شناسی از دانشگاه ام آی تی می نویسد: «ورای مشغولیت ذهنی ما یک سؤال بیان نشده درباره آینده تکنولوژی وجود دارد. این سؤال درباره آن نیست که تکنولوژی در آینده چه شکلی خواهد داشت، بلکه بیشتر درباره آن است که ما چه شکلی خواهیم بود، همانطور که بطور فزاینده ای روابط صمیمانه ای را با ماشین ها برقرار می کنیم؟”158
فلسفه تکنولوژی سؤالاتی را درباره آزادی و کرامت انسان در جامعه ایکه بطور فزاینده ای تکنولوژیکی می شود مطرح می کند. برای مثال آیا این درست است که بسیاری از مردم در جوامع بسیار صنعتی دارای مشاغل تکراری و احمقانه هستند؟
توسعه برخی تکنولوزیهای جدید مثل مهندسی ژنتیک و نانوتکنولوژی این ترس را ایجاد می کند که فرآیندهای قدرتمند آنقدردر حال پیشرفت هستند که ممکن است انسانها نتوانند آن را کنترل کنند. بسیاری از همین نگرانیها در رابطه با روباتها مطرح می شوند.

1-6-1-3 قدرت فریبدگی تکنولوژی
در سال 1994، “فریتز هایدر”159 و “ماری آن سیمل”160، یک آزمون قدیمی را منتشر کردند که در آن آزمون آنها نشان می دادند که برای مردم، مشارکت ویژگیهای انسانی در چیزهایی که آنها آن را موجود زنده می دانند، چقدر طبیعی است. در این آزمایش آنها، به سوژه خود فیلم هایی از اشکال هندسی ساده نشان دادند که در یک صفحه نمایش خالی حرکت می کردند و از آنها خواسته شد که آنچه را که دیدند، توصیف کنند. هر فرد بطور خود بخود حرکت این اشیا را با کلماتی مثل، خواسته ها، ترس ها، و نیازها توصیف می کرد. وقتی که یکی از مثلث ها مثلث دیگری را تعقیب می کرد و مثلث دوم به طور متناوب مسیر حرکت

پایان نامه
Previous Entries دانلود پایان نامه درباره هوش مصنوعی، سیستم های خبره، سیستم خبره، علوم کامپیوتری Next Entries دانلود پایان نامه درباره اسباب بازی، ایالات متحده، خانه سالمندان، مصرف کنندگان