دانلود پایان نامه درباره استراتژی ها، رفتار اخلاقی، محدودیت ها، انعطاف پذیری

دانلود پایان نامه ارشد

را به AMA ها بررسی کرده اند، “کریستوفر لانگ”438 هم وجود دارد. او مقاله ای نوشت که در آن متذکر شد که محدودیت هایی که در سیستم های از بالا به پایین درونی هستند، بر اساس اخلاقی مبتنی بر قاعده طراحی شده اند، مثل سه قانون آسیموف. او استدلال کرد که هر سیستمی که در آن قاعده بکار رفته باشد، دچار مشکلات جدی خواهد شد. لانگ در عوض رویکردی را به فاعل های اخلاقی توصیه کرد و آن را “اخلاق جستجو”439 نامید. در این استراتژی، کامپیوتر از طریق یک جستجوی پایان ناپذیر برای یافتن اهداف عقلانی، اخلاق را آموزش می بیند. ایده لانگ برای ماشین های یادگیرنده مبتنی است بر آنچه که گاهی الگوریتم های “بالا رفتن از تپه”440 یا “جستجوی حریصانه”441 نامیده می شود. این الگوریتم های یادگیری بی پایان، برای همیشه در جستجوی راه حل های بهتر و بهتر هستند. الگوریتم های ژنتیکی، الگوریتم های “بالارونده از تپه”هستند، و به همین ترتیب تکنیک های یادگیری پیوندگرا هم هستند. لانگ بسیار خوش بین است که ماشین های یادگیرنده بطور طبیعی برای آرزوها و گوناگونی انسانها ارزش قائل شوند. تنها محدودیتی که او در ماشین هایی که طبق اخلاق جستجو طراحی شده اند، مشاهده می کند، آن است که آنها بطور موقت نابالغ و رشد نیافته هستند تا زمانی که سیستم به سطح رضایت بخشی برسد که ممکن است در آن سطح بتواند به عنوان یک فاعل اخلاقی تشخیص داده شود.
“از آنجایی که این سیستم های یادگیرنده بوسیله قواعد از قبل تعیین شده محدود نشده اند، لانگ آنها را “ماشین های یادگیرنده بی طرف”442 می نامد. اما استفاده از کلمه “بی طرف”، در این محتوا به نوعی خاص است. در عبارات ما این کلمه به معنای آن است که ماشین ها بوسیله اصول از بالا به پایین هدایت نمی شوند. علی رغم عقیده لانگ که می گوید چنین رویکردهایی بی طرف هستند، اما در واقع تعصب ها می توانند در آنها نفوذ کنند – مثلاً در طراحی یک سکوی خاص، در تعریف رویه یا الگوریتم هایی که برای الگوریتم بالا رفتن از تپه انتخاب می شوند، و در ساختار و توانایی داده هایی که در اختیار سیستم قرار دارند.”443
بحث لانگ صرفاً در سطح تئوری قرار دارد. الگوریتم های واقعی جستجوگر و یا بالا رونده از تپه، هنوز به طور کامل در توسعه فاعل های اخلاقی بررسی نشده اند. زیرا ماشین های یادگیرنده، نیاز به برنامه نویسان برای پیش بینی احتمالات را از بین می برند، و در خارج از حوزه اخلاق هم کاربردهای زیادی دارند و بسیار عمومی شده اند. ما معتقدیم که این تکنیک ها به برنامه نویسانی که علاقمند به توسعه فاعل های اخلاقی هستند، امید زیادی می دهند. با این وجود، خطراتی هم وجود دارند که در سیستم های یادگیرنده ذاتی هستند. بینایی سیستم های یادگیرنده به طور طبیعی به سمت حساسیت اخلاقی ای پیش می رود که برای انسان ها ارزش قائل است و نگرانی های اخلاقی انسان، یک دیدگاه خوش بینانه است که در مقابل پیش بینی های مخوف مربوط به آینده در رابطه با خطراتی که AI به وجود می آورد، قرار می گیرد. لازم به ذکر است که سیستمی که توانایی یادگیری دارد، پتانسیل یادگیری چیزهای غلط را هم دارد، و می تواند از ممنوعیت هایی که در او وجود دارد فراتر رود و آنها را انجام بدهد.
توانایی های اولیه یادگیری در سیستم های AI امروزی، با مهارت های یادگیری انطباقی غنی که در کودکان مشهود است، زیادی دارند. همانطور که گفته شد، رویکردهای AI به یادگیری، در رشد اخلاقی بکارگرفته نشده است. اما بحث ما در مورد خطرات بالقوه ماشین های یادگیرنده، ما را وا می دارد که معتقد باشیم که در آینده، لازم است که مهندسان تکامل شبیه سازی شده یا یادگیرنده را با رویکردهای از پایین به بالای سنتی به طراحی سیستم، ترکیب کنند.
3-3-4ترکیب رویکردهای سنتی از پایین به بالا با رویکرد تکاملی و یادگیرنده
یک چشم انداز سریع برای سیستم هایی که با حساسیت نسبت به ملاحظات اخلاقی عمل می کنند، عمدتاً محدود شده اند به طراحی سیستم هایی که اخلاقیت عملی دارند، یعنی، ما را مطمئن می کنندکه کارکرد سیستم AI به همان شکلی است که برای آن کارکردطراحی شده است. این امر اساساً گسترش مهندسی سنتی ای است که با مسئله امنیت در طراحی ماشین هایی سر و کار دارد که می توانند به طور قابل اعتمادی یک کار خاص را انجام دهند، چه انجام این کارمستلزم آن باشد که روبات مسیر یک راهرو را بدون آسیب زدن به خود و یا منحرف شدن به سمت مردم بپیماید و از نظر بینایی حضور انسان را از اشیاء بی جان تشخیص دهد، و چه مستلزم آن باشد که حالت عاطفی ای که به طور تلویحی در یک صورت وجود دارد را درک کند. در حالیکه تمرکز مهندسان و دانشمندان کامپیوتر روی آن است که ماشین ها بتوانند کارها را بهصورت تک تک و مجزا از هم انجام دهند، این کارها ممکن است به صورت یکجا منجر شوند به فعالیت های پیچیده تر و خودمختاری بیشتر. این رویکردها “از پایین به بالا” هستند، زیرا خود توسعه و توسعه این زیر سیستم های مجزا، خودش به وسیله هیچ نظریه اخلاقی ای هدایت نمی شود. بلکه، امید است که با آزمایش روش های تعامل این زیر سیستم ها با یکدیگر، ظرفیت های اخلاقی مناسب خلق شوند.
دانشمندان کامپیوتر و روبات شناسان در حال کار روی مهارت های گوناگون مربوط به AI هستند که وابسته است به ظرفیت های اخلاقی. تکنیک هایی که رویکردهای مختلف فراهم می کنند – از جمله Alife، الگوریتم های ژنتیکی، پیوند گرایی، الگوریتم های یادگیری، معماری تجسم یافته، روباتیک تکاملی، سکوهای یادگیری شراکتی و حتی AI سمبلیک سنتی- قدرت همه اینها در نمونه سازی مهارت های شناختی خاص یا ظرفیت های خاص است.
چطور ممکن است که یک فرد از مهارت های از هم گسیخته، به سیستمی برسد که قادر است بطور خودکار رفتار پیچیده، از جمله رفتار اخلاقی، از خود نشان دهد و بتواند در زمینه های محیطی جدید و در تعامل با فاعلهای دیگر با چالش ها مواجه شود؟ برخی از دانشمندان امیدوارند که مجموعه مهارت های مجزا، منجر خواهدشد به پیدایش توانایی در سطحی بالاتر، از جمله هوش عاطفی، قضاوت اخلاقی، و آگاهی. با اینکه واژه “پیدایش” واژه ای است که دانشمندان و فیلسوفان ان را زیاد به کار می برند، اما هنوز یک مفهوم مبهم است که براین امر دلالت می کند که فعالیت های پیچیده تر از اتحاد فرآیندهای ساده تر، ناشی می شوند. وقتی که آنها به شکل موفقیت آمیزی باهم متحد شدند، عناصری که بطور فردی محدود هستند، با انعطاف پذیری در پاسخ هایشان می توانند سیستم های پویایی را به وجود بیاورند که می توانند در پاسخ به شرایط بیرونی و فشارها، انتخاب هایی داشته باشند. بنابراین مهندسی از پایین به بالا، نوعی اخلاقیت پویا را معرفی می کند که در آن بازخوردهای مداوم مکانیسم های اجتماعی مختلف، همانطور که شرایط تغییر می کند، پاسخ های گوناگونی را فراهم می کنند.
اخلاق انسان،پویا است. گرچه ممکن است هنگامی که انسان ها متولد می شوند به والدین و مراقبان دیگر خود اعتماد داشته باشند، اما کودکان و بزرگسالان روابط جدید را امتحان می کنند و احساس می کنند که باید سطوح اعتماد خود را عمیق تر کنند. انسان ها هر رابطه ای را با سطوح مختلفی از اعتماد آغاز می کنند، اما هیچ فرمول ساده ای برای اعتماد وجود ندارد و هیچ روشی هم وجود ندارد که با آن شخص بتواند به آشنایی های جدید خود اعتماد کند. مکانیسم های اجتماعی گوناگون، از جمله آزمایشاتی با ریسک پایین همراه به همکاری، خواندن احساسات دیگران در شرایط خاص، تخمین شخصیت دیگران و محاسبه اینکه در یک رابطه خاص، یک فرد روی چه چیزی حاضر است ریسک کند، همه اینها منجر می شوند به تعیین کردن اعتماد به صورت پویا. هر تعامل اجتماعی جدید، دورنمای تغییر سطح اعتمادی که در رابطه وجود دارد را ترسیم می کند. درسی که محققان AI و روبات شناسان باید بگیرند آن است که با وجود اینکه AMAها نباید وقتی وارد جهان می شوند نسبت به همه رابطه ها مشکوک باشند، اما نیازمند این ظرفیت هستند که بتوانند بصورت پویا مذاکره کنند و یا مسیر خود را به سمت سطوح برجسته اعتماد همراه با انسان ها و سیستم های کامپیوتری دیگری که با آنها در تعامل هستند، احساس کنند.
قدرت سیستم های از پایین به بالای پیچیده، در روشی قرار دارد که آنها بصورت پویا از مکانیسم های اجتماعی گوناگون، ورودی دریافت می کند. ضعف استفاده از معماری از پایین به بالا، مثل استراتژی توسعه AMAها، در عدم درک این مطلب است که همانطور که شرایط تغییر می کند، چه اهدافی را برای ارزیابی انتخاب ها و اعمال باید داشته باشیم. ساخت سیستم های از پایین به بالا، وقتی که آنها برای کسب یک هدف روشن در نظر گرفته شده باشند، آسان است. وقتی اهداف زیاد باشند و یا اطلاعات در دسترس گیج کننده و یا ناقص است، برای مهندسی از پایین به بالا بسیار سخت است که اعمال مشخصی را فراهم کنند. با این وجود این حوزه پیشرفت کرده است و باعث شده است که سیستم های انطباقی با معاملات بین کارهای مختلف، بطور مؤثرتر سرو کار داشته باشند.
3-3-5 نتیجه
استراتژی های از پایین به بالا، وعده ایجاد مهارت ها و استانداردهایی را می دهد که در سراسر فرآیند طراحی AMAها صحیح و کامل هستند، اما توسعه و رشد آنها بسیار سخت است. تکامل و یادگیری، مملو از آزمایش و خطا است، و این شامل یادگیری از اشتباهات و استراتژی های ناموفق نیز می شود. حتی در محیط های پر سرعت سیستم های کامپیوتری، یعنی جایی که نسل های زیادی از فاعل های مصنوعی می تواند در چند ثانیه تغییر کنند و تکرار شوند، تکامل و یادگیری، می تواند یک فرآیند بسیار کند باشد.
این مسئله هنوز نامشخص است که برای یک AMAی در حال رشد، چه هدفی مناسب است. چه معیار مناسبی تعیین می کند که کدام AMAها اجازه دارند که تغییر کنند و تکثیر شوند؟ آن هدف چگونه می تواند به شکل مناسبی برای یک سیستم خود سازمان ده تعریف شود؟ “جاناتان هارتمن”444، در مقاله درسی خود برای وندل والاچ، نوشت که ممکن است مهندسان از سه قانون آسیموف به عنوان یک معیار مناسب استفاده کنند. برخلاف کاربرد از بالا به پایین این قوانین که در آن این قوانین محدودیت های سختی را اعمال می کنند، در محتوای تکاملی، این قوانین به عنوان اصول راهنما عمل می کنند که سیستم در تلاش است این اصول را اجرا کند. در مورد موفقیت نسل ها، برحسب توانایی آنها در نزدیک شدن به این اهداف تعیین می شود. بخش منفی این رویکرد به قوانین آن است که آنها ممکن است هرگز قید و بندهای محکمی نشوند و خطر ایجاد صدماتی را که یک روبات مسبب آن است را افزایش دهند. نقطه قوت این رویکرد در آن است که روبات می تواند رابطه پویای بهتری را با قوانین داشته باشد و با آنها مثل اصول وفق دهنده و هدایت کننده رفتار کند. این قید و بندهای نرم تر بهتر می توانند از معماها و مشکلاتی اجتناب کنند که افرادی مثل هال، لانگ، و نویسندگان دیگر را تحریک کردند که قوانین آسیموف را رد کنند. “رویکرد دورگه هارتمن، اصول از بالا به پایین ، شهودی و مستقیم قوانین آسیموف را با آن انعطاف پذیری پویا که باعث می شود توسعه از پایین به بالا بسیار مطلوب باشد، ترکیب می کند.”445
اصول از بالا به پایین به نظر”ایمن تر” هستند، گرچه آنها بر استانداردهای ایده آلی دلالت دارند که مواجه شدن با آن استانداردها، حتی برای انسان ها سخت است، و ممکن است این اصول پیچیدگیهای محاسباتی ای داشته باشند که باعث شوند اجرای آنها اگر غیرممکن نباشد، سخت باشد. اگر اجازه دهیم که یک AMA یادگیرنده، همانطورکه استدلال اخلاقی را توسعه می دهد، به اشتباه کردن هم ادامه دهد، یک کار بیهوده انجام داده ایم که ممکن است انسانیت نتواند از پس آن برآید. در یک مجموعه آزمایشگاهی تحت کنترل، ممکن است بتوان مجموعه ای از موقعیت های یادگیرنده و یا تکاملی را خلق کرد که از طریق آنها یک AMA بتواند مطابق یک سطح اساسی و قابل پذیرش از رفتار اخلاقی کار کند. به صورت تئوری، وقتی که این سطح اساسی برای سیستم بدست آمد، برنامه یا سخت افزارش می تواند بصورت نامحدود تولید شود.هر سیستمی که به این روش تولید

پایان نامه
Previous Entries دانلود پایان نامه درباره شبیه سازی، محدودیت ها، یادگیری ماشین، رفتار اخلاقی Next Entries دانلود پایان نامه درباره اخلاق فضیلت، فضایل اخلاقی، شبکه های عصبی، یادگیری ماشین