دانلود پایان نامه درباره گروه های اجتماعی، به دست آوردن غذا

سه قانون آسیموف، ابزاری را برای کشف مشکلات ذاتی او و دیگر نویسندگان داستانهای علمی تخیلی، در شکل ساده ای از اخلاق وظیفه محور فراهم کرد. آسیموف، هیچ تحلیل مستقیمی از این قوانین را ارائه نکرد. بلکه زیست پذیری آنها را از طریق یک سری داستانهایی که او در سرتاسر زندگی اش نوشت، کشف کرد. در ابتدا، به نظر می رسد که قواعد خیلی سر راست هستند. اما برای آسیموف و نسل های بعدی، بدیهی بود که حتی این قواعد ساده در اجرا مشکل ساز خواهند بود. برای هر اصل اخلاقی، سبک و سنگین کردن های اخلاقی وجود دارد.
برای مثال “آیا روباتی که قوه تخیل ندارد مانع صحبت کردن یک جراح را درباره بریدن بدن یک بیمار خواهد شد”؟ اطمینان حاصل کردن از این امر که یک روبات می فهمد که جراح با بکار بردن چاقو روی بدن بیمار قرار نیست که به بیمار صدمه ای وارد کند، امر ساده ای نخواهد بود. کاربرد کاملاً هوشمندانه از یک اخلاق وظیفه محور ساده، نیازمند فهم بالایی است درباره زمینه و استثناها در قواعدی که منجر به هیچ صدمه ای نمی شوند. یک AMA با چنین ظرفیت هایی پایگاه اطلاعاتی بزرگی را نیاز دارد تا قواعد را به درستی درزمینه های مختلف به کار گیرد و این پایگاه اطلاعاتی لازم است که به طور منظم به روز شود.
اگر هر دسته از اعمال، موجب صدمه انسان شوند، یک روبات چه کاری باید انجام دهد؟ در کتاب دروغگو، آسیموف داستانی از “هربای” می گوید، روباتی که به روانشناسی انسان حساس است و زمانی که چالشی را ملاحظه می کند که در آن همه انتخاب ها منجر به درد روانی در انسان می شوند، در هم می شکند. البته انسان ها به طور روزانه با چنین مشکلاتی روبرو می شوند. (یا اگر به نتایج اعمالشان فکر می کردند، در هم می شکستند!) در اصل، این حقیقت که هربای به جای آسیب زدن به انسان، درهم می شکند ممکن است یک حفاظ درونی به نظر بیاید. اما به آسانی می توان موقعیتی را تصور کرد که در آن یک شخص مسن در راه بازگشت به خانه وابسته به یک روبات است و در هم شکستن سیستم روباتیک موجب آسیب بزرگتری می شود.
در مورد مداخله ناخواسته در جراحی، اگر لیست مفروض داده ها نتوانند فراگیر باشند، AMA در موقعیت های ناشناخته موفق نخواهد بود. در متن جهان واقعی، از قرار معلوم قواعد سر راست هم می توانند به گونه ای باشند که پیروی از آنها غیر ممکن باشد. بدون هیچ تدبیری برای در اولویت قرار دادن قواعد، تعارض بین آنها می تواند موجب به بن بست رسیدن شود. آسیموف، قواعدش را در اولویت قرار می دهد تا تعارضات بین آنها را به حداقل برساند اما حتی قواعد واحد هم می توانند منجر به بن بست شوند، به عنوان مثال، زمانی که دو انسان دستورات متناقض می دهند یا عملی که توسط روبات انجام می شود ( به انضمام سکون) و موجب آسیب به شخص خواهد شد. باید نگهداری روبات هایی را که هنگامی که عملی منجر به صدمه به انسان می شود انتخاب می کنند که آن عمل را انجام دهند یا ندهند، متوقف کرد، اما مطمئناً برای جهان واقعی AMA ها، این کار قابل توصیه نیست. با فرض آنکه در جهان واقعی همیشه ممکن نیست بتوان از صومه جلوگیری کرد، کاهش صدمه بهترین روشی است که می توان در بسیاری از موقعیت ها به آن امیدوار بود.
قواعد آسیموف، کمترین موانعی هستند که ممکن است یک فرد بخواهد در ماشین های برده آنها را اجرا کند، نه یک اخلاق کامل برای ذهن های مصنوعی همراه با استعداد عمل با اقتدار قابل ملاحظه. بسیاری از کدهای اخلاقی جهان واقعی که ممکن است فرد بخواهد آنها را در یک سیستم محاسباتی اجرا کند، همه قواعد را در اولویت قرار نمی دهند و بنابراین بین آنها تعارض ایجاد می شود. هر AMA قاعده محوری نیازمند یک ساختار نرم افزاری خواهد بود که بتواند موقعیت هایی را مدیریت کند که در آنها قواعد باهم تعارض دارند. مشاور IT، “راجر کلارک”، در بازنگری درسهایی که می توان از داستانهای آسیموف گرفت پیشنهاد می کند که یک مهندس ممکن است به خوبی نتیجه بگیرد که قواعد یا قوانین، یک استراتژی طراحی مؤثر برای ساخت روبات هایی که رفتارشان باید اخلاقی باشد، نیستند.
توافق بر سر اینکه یک فاعل اخلاقی کاملاً خودمختار نباید زمانی که با یک معمای اخلاقی مواجه می شود، گیر کند، خیلی بدیهی است. اما آیا همه موافقند که برای حل معما یک AMA ممکن است گره کور را باز کند و احتمالاً به انسان صدمه بزند؟ گاهی اوقات قواعد، از جمله فرآیندهای تصمیم گیری دموکراتیک، باید شکسته شوند. و برخی سیستم های اخلاقی عدم اطاعت از قواعد را مجاز می دانند-گویی که آنها فقط قیود بدیهی اعمال هستند. در رویکردهای قاعده محور برای اینکه بگذاریم یک AMA آزادی عمل سرپیچی از قاعده را داشته باشد، لازم است که معیار کاملاً صریحی را برای زمانی که می خواهیم این کار را انجام دهد، تنظیم کنیم. اما هر معیاری از این دست، احتمال زیادی دارد که معماهای دیگری ایجاد کنند. ضربه زدن به بادکنک باعث می شود که در جای دیگری متورم شود.
با این وجود، قواعد اخلاقی وظیفه گرایانه، نه فقط برای فیلسوفانی که تئوری اخلاقی ارائه می دهند، بلکه در مباحث عمومی اخلاق هم، نقش مهمی را بازی می کنند. “چنین قواعدی از قاعده خیلی صریح گرفته تا قواعد انتزاعی، از نسخه ویژه رفتارهای خاص (مثل “تو نباید دزدی کنی”) تا هدایت اصولی که عمل صحیح باید از آنها ناشی شود (مثل “با دیگران همانطور رفتار کن که دوست داری با تو رفتار کنند”) درجه بندی می شوند.”در قسمت های خاص تر، ده دستور کتاب مقدس، سه قانون آسیموف و کدهای حرفه ای رفتار قرار دارند. در بخش های انتزاعی تر، نسخه های متفاوت تری از قاعده طلایی که در بسیاری از ادیان و فرهنگ های جهان بیان شده، و امر مطلق کانت که مستلزم عمومیت بخشیدن به انگیزه های عمل است، وجود دارند.
درمورد محاسبه اخلاق، بین قواعد از درجه خاص تا انتزاعی چالش های متفاوتی مطرح می شود. قواعد خاص تمایل دارند که نسبتاً به آسانی در موارد ساده یه کار گرفته شوند، اما در شرایط پیچیده تر، رهنمود نامشخصی را در اختیار قرار می دهند. آیا شما باید به پدر خود با دزدیدن احترم بگذارید اگر او این را از شما بخواهد، به ویژه اگرهیچ راه دیگری برای به دست آوردن غذا نداشته باشد؟ یک روبات نوع آسیموف، اگر دستورات متناقضی از طرف انسانهای مختلف دریافت می کرد یا با انتخاب بین اعمالی مواجه می شد که همه آنها منجر به صدمه به انسان می شوند، چه کاری انجام می داد؟ لیست های وظایف خودشان چیزی برای حل این ابهامات ندارند. اگرچه آسیموف سه قانون را صریحاً به صورت سلسله مراتبی بیان می کند، اما این امر زمانی که یک اصل خودش منجر به تقاضاهای متناقض می شود، هیچ فایده ای ندارد. به نظر می آید قواعد انتزاعی تر برای فیصله دادن به چنین تناقض هایی ضروری هستند.
امر مطلق کانت و قاعده طلایی، تئوریهای وظیفه گرایانه انتزاعی تری را نشان می دهند. آنها تلاش می کنند تا تعارضات را بوسیله بیان اصولی از یک اصل کلی که در هر موقعیتی می توانند به کار روند، برطرف کنند. امر مطلق، برای ایجاد سازگاری منطقی طراحی شده است. بنابراین، این امر ممکن است موجب شود که این سازگاری به طور خاص برای کامپیوترهایی مناسب به نظر بیاید که در یک چارچوب منطقی کار می کنند. کانت چندین نسخه متفاوت از امر مطلق نوشت، اما ایده کلیدی او در این عبارت بیان شده است: “فقط طبق آن اصلی عمل کن که از طریق آن بتوانی به طور همزمان اراده کنی که آن اصل یک قانون کلی شود.”
معنای دقیق و کاربرد تئوری کانت بین فیلسوفان بحث برانگیز است، اما مهندسی که در حال ساخت یک AMA است از امر مطلق، چه چیزی می فهمد؟ ما فکر می کنیم که اولین تخمین معقول این ایده است که روبات ها یی که از بین گزینه های مختلف گزینه ای را انتخاب می کنند، باید بررسی شوند، تا ببینیم که اگر فاعل های مشابه دیگرهم به همین روش در تطابق با موقعیت ها عمل می کردند یا نه، آیا می توانستند به اهداف خود برسند. بسیاری از پیروان کانت استدلال می کنند که فاعل های مصنوعی اصلاً قادر نیستند چیزی را اراده کنند. با این وجود ممکن است امر مطلق توسط AMA ها به عنوان ابزاری رسمی برای بررسی میزان اخلاقی بودن یک اصل که رفتار را هدایت می کند، به کار گرفته شود. برای استفاده از این ابزار، یک AMA نیازمند اصلی از عقل عملی است که به صورت شفاف و کامل بیان شده باشد و شامل این سه عنصر باشد: “یک هدف، روش یا نوعی از عمل که فاعل توسط آن بتواند به آن هدف برسد، و شرایطی که تحت آن شرایط، عمل کردن به آن روش، منجر به رسیدن به هدف مورد نظر خواهد شد”. با فرض این سه عنصر، یک وسیله محاسباتی بسیار قوی ممکن است قادر باشد تحلیل یا یک مدل مشابه را به کار گیرد تا تعیین کند که اگر همه فاعل های دیگر مجبور بودند با همین اصل فعالیت کنند، هدف او به تأخیر می افتاد یا نه. برای مثال ،خود کانت کاربردی از امر مطلق را با استخراج دستوری علیه دروغگویی تشریح کرد ، زیرا او استدلال می کرد که اگر همه برای رسیدن به اهدافشان دروغ بگویند، پس گفتار بی معنی خواهد شد،پس دروغگویی را به طور کلی غیر ممکن کرد.
“شاید مردم هم بر این باور باشند که دروغگویی زیاد اعتبار را از بین می برد، اما بسیاری از مردم با کانت درکلی کردن این اصل که ” همیشه حقیقت را بگو”، مخالفند و استدلال می کنند که میزان محدودی از دروغ ها در شرایط خاص مناسب هستند. تعیین یک اصل قائم به ذات که آن موقعیت ها را پوشش دهد، یک مشکل استدلالی سخت است که در نهایت مبتنی است بر میزان زیادی از دانش تجربی. بنابراین هر AMA که در استدلال کانتی به کار می رود، نیازمند ویژگی های انتزاعی بیشتری برای اهداف، اعمال و شرایط است. همچنین لازم دارد تا در مورد روانشناسی انسان و روبات و درباره تأثیرات اعمال در جهان دانش زیادی داشته باشد”.
سیستم های وظیفه محور اساساً بر قواعد متکی هستند ولی با این وجود نتایج کاربرد قواعد مهم هستند. قواعد زیادی به منظور دفع نتایج بد اتخاذ شده اند، حتی بعضی از این قواعد صریحاً بر حسب نتایج بیان شده اند. برای مثال روباتی که از قوانین آسیموف تبعیت می کند، لازم است اندازه ای را که با آن اعمالش ( یا سکونش ) منجر به صدمه به انسان می شوند را بداند تا بررسی کند که آیا آن با قانون اول سازگار است یا نه. حتی امر مطلق کانت نیازمند فاعل هایی است تا ببینند که یک اصل خود ویرانگر است یا نه، به این معنا که پیروی از آن منجر به تخریب دیگر راه های پیروی از آن خواهد شد. “یک AMA مبتنی بر امر مطلق کانت باید (1)تشخیص دهد که عملش با چه هدفی انجام می شود، و(2) تأثیرات همه فاعل های دیگر را تعیین کند که در حال تلاش برای رسیدن به همان هدف از طریق همان رویه عمل در شرایط قابل مقایسه هستند. این امر نوعاً مستلزم آن خواهد بود که تصمیم بگیریم چه کاری را انجام دهیم، زیرا (1) و (2) فقط تعیین می کنند که چه کاری را انجام ندهیم ، مگر آنکه گزینه های دیگر به صورت متقابل انحصاری باشند.این AMA همچنین نیاز دارد که دانش روانشناسانه گسترده ای در مورد انسان هایی که درگیر اجرای رضایتمندانه همه تعینات ضروری هستند، داشته باشد.
یک AMA که از قانون طلایی تبعیت می کند، نیاز خواهد داشت که بتواند (1)متوجه تأثیر اعمال دیگران بر خودش باشد، این تأثیر را تعیین کند ( حتی در موقعیت های مشروط)، و ترجیحاتش را انتخاب کند؛ (2) نتایج اعمال خودش را بر حالات عاطفی دیگران تعیین کند، و تصمیم بگیرد که آنها با ترجیحات شخصی او سازگار هستند یا نه؛ و (3)در حالیکه روی (1) و (2) کار می کند تفاوت ها را در روان شناسی فردی تبین کند، همانگونه که مردمی تحت تأثیر یک عمل قرار گرفته اند ممکن است به یک رفتار واکنش های متفاوتی نشان دهند. نکته بعدی فرض می کند که AMA استعداد تشخیص و پیش بینی تغییرات در عکس العمل های مؤثر مردم نسبت به تصمیمات او را دارد. سخت است که پیش بینی نتایج واقعی اعمال، غیرممکن باشد”.
از نظر انسانها تشخیص اینکه کدام قواعد یا اصول خاص تر، با این قواعد کلی، از جمله امر مطلق یا قاعده طلایی سازگار هستند، بسیار سخت است. همه اصول کلی وظیفه گرایانه که در جستجوی حل تعارضات بین وظایف بدیهی هستند با همین مسائل روبرو می شوند. در پایان، موضوعات محاسباتی زیادی که با رویکردهای وظیفه محور مواجه هستند، به آنهایی نزدیک می شوند که با سیستم های نتیجه گرا مواجه هستند.
رویکردهای وظیفه گرا مستلزم آن هستند که AMA هایی که آنها را اجرا می کنند قواعد را به خوبی درک کنند تا در هر موقعیتی که نیاز به گزاره اخلاقی بود، به درستی استدلال کنند. اگر قواعد در همه شرایط مسیر غیر مبهمی را ارائه می کردند تفسیر و کاربرد صحیح تئوری اخلاقی بسیار آسان تر می بود. اما از قرار معلوم دوباره موانع برطرف نشدنی ای وجود دارند. برای کاملاً شفاف کردن قواعد، AMA باید تعاریف واضح همه عباراتی که استفاده می شوند را داشته باشد. همچنین، برخی اعمال به روشنی آسیب رسان هستند. ممکن است بتوان با تمرکز اولیه روی موارد روشن، اخلاق متداول زیادی را در سبک از بالا به پایین بدست آورد. در نهایت، AMAها هم نیاز خواهند داشت تا توانایی استدلال درباره موارد اخلاقی را در یک سبک از بالا به پایین داشته باشند.
با این وجود، محدودیت های رویکردهای از بالا به پایین به این استنتاج اضافه می شوند که تجهیز AMA با مجموعه ای غیر مبهم از قواعد از بالا به پایین که باید تبعیت شوند، شدنی نیست. همه با این موضوع موافق نیستند. سوزان اندرسون، معتقد است که یک مجموعه سازگار از اصول پدیدار است زیرا او فرض می کند که کارشناسان عموماً باهم توافق دارند. او می گوید”بهترین راه برای مقابله با چالش محاسباتی اخلاق، خلق ماشینی است که به عنوان یک مشاور اخلاقی برای انسان عمل کند.”از این رو او در فعالیت ها ی پزشکی خود ماشین MEdEthEX را ساخت. اندرسون معتقد بود که ماشین هایی که فقط به مردم مشاوره می دهند، راحت تر توسط مردم پذیرفته می شوند، و با وجود یک مشاور، انسان ها راحت تر می توانند به داه های مورد نیاز خود دسترسی پیدا کنند. اما همین اصول در اخلاق پزشکی هم مورد استفاده قرار گرفته اند، و در موقعیت های بیشماری این اصول منجر به توصیه های متناقض برای عمل می شوند. ما فکر می کنیم که کاری که پیش روی AMA ها قرار دارد آن است که یاد بگیرند با ماهیت ذاتاً مبهم گزاره اخلاقی انسان تعامل کنند، از جمله با حقیقتی که حتی کارشناسان هم می توانند با آن مخالف باشند.
اگر امور به همان اندازه که ما می گوییم مبهم باشند، ماشینها چگونه می توانند موفق عمل کنند؟ با وجود این موضوع، انسان ها چگونه می توانند موفق عمل کنند؟ انسان ها یاد می گیرند تاحرف از قانون را از روح قانون تمایز دهند. انسان ها توانایی تعامل با گسستگی و پیچیدگی زندگی را شناسایی می کنند تا تعادلی بین دانش و شک پیدا کنند، مثل حکمت عملی. حکمت از تجربه پدیدار می شود، از عمل و مشاهده با دقت، از یکپارچگی ادراک، عواطف و اندیشه. (این ها شاید کیفیاتی هستند که در دخالت کانت در نقشی برای اراده انسان در امر مطلقش مشارکت می کنند). آیا نیاز به چنین حکمتی به آن معناست که انسان ها باید در AMA ها ظرفیت های استدلال فکری، ظرفیت های نفسانی/عاطفی را ایجاد کنند؟
3-3 رویکردهای از پایین به بالا و توسعه ای
انسان ها به عنوان فاعل های اخلاقی شایسته وارد این دنیا نمی شوند. همه افراد هم به شکل یک فاعل اخلاقی شایسته این هان را ترک نمی کنند. اما جایی بین این دو حالت، بیشتر مردم شایستگی کمی کسب می کنند که به آنها صلاحیت عضویت در جامعه فاعل های اخلاقی را می دهد.
ژن ها، رشد و یادگیری، همه در فرآیند تبدیل شدن آدمی به یک انسان محبوب، شراکت دارند. اما تعامل بین طبیعت و تربیت بسیار پیچیده است و زیست شناسان توسعه ای، به تازگی در حال فهم این پیچیدگی هستند. DNA، بدون داشتن زمینه ای که توسط سلول ها، اندام ها، گروه های اجتماعی و فرهنگ فراهم شده باشد، چیزی است فاقد کارآیی. هر کسی که می گوید “مردم بصورت ژنتیکی برنامه ریزی شده اند” که اخلاقی باشند ( و یا بصورت روانی به این صورت به وجود آمده اند که اخلاقی باشند)، در واقع دیدگاهی بسیار ساده انگارانه درباره کارکرد ژن ها دارد.”
ژن ها و محیط به شکلی باهم در تعامل هستند که دیگر نمی توان فکر کرد که فرآیند رشد اخلاقی در کودکان و یا هر فرآیند توسعه ای دیگری، را می توان بر حسب طبیعت علیه تربیت، مورد بحث قرار داد. زیست شناسان توسعه ای اکنون می دانند که هر دوی اینها (طبیعت و تربیت) مؤثر هستند و یا طبیعت از طریق تربیت هویدا می شود. تبیین کاملاً علمی تکامل اخلاقی و توسعه در گونه ای انسانی یک مسیر طولانی را می طلبد. و حتی اگر فردی چنین تبیینی را ارائه کند، مشخص نیست که انسان چگونه می تواند آن تبیین را در کامپیوترهای دیجیتالی بکار ببرد. با این وجود، ایده های تکاملی و توسعه ای در طراحی AMAها نقش مؤثر خود را بازی خواهند کرد.
این ایده که AI باید رشد کودک را تقلید کند، قدمتی به اندازه خود AI دارد. آلن تورینگ در سال 1950در مقاله ای به نام ” آیا ماشین ها می توانند فکر کنند؟” اینگونه می نویسد: “چرا ما به جای تلاش برای تولید برنامه ای که ذهن انسان را شبیه سازی می کند، تلاش نمی کنیم برنامه ای را تولید کنیم که ذهن بچه ها را شبیه سازی کند؟ اگر چنین چیزی موضوع یک رشته درسی مناسب باشد، آنگاه می تواند ذهن بزرگسالان را هم شبیه سازی کند.”
تورینگ فقط به اخلاق فکر نمی کرد، بلکه در عوض به این مسئله فکر می کرد که آیا یک ماشین محاسبه گر هیچ گاه خواهد توانست یک عمل واقعی و اصیل را انجام دهد یا نه. “این ایده که ماشین ها هیچ گاه قادر نخواهند بود سرچشمه و منشأ چیزی باشند، بیش از یک قرن پیش توسط “آدا لاولیس” مطرح شده بود، کسی که با “کالس بابیج” کار می کرد تا بتواند توصیف قابل درکی از “موتور تحلیلی” ارائه دهد – ابزار مکانیکی محاسبه که طراحی شد ولی ساخته نشد و به عنوان طلایه دار کامپیوترهای دیجیتالی و مدرنی است که در نهایت توسط کارهای تورینگ ساخته شدند.”
لاولیس نوشت که: “موتور تحلیلی اصلاً وانمود نمی کند که منشأ چیزی است. او کارهایی که می دانیم چگونه دستور اجرای آنها را صادر کنیم، را می تواند انجام دهد.” تورینگ استدلال کرد که: “اگر یک کامپیوتر را بتوان در یک حوزه آموزشی قرار داد که قابل مقایسه با آموزشی باشد که کودک دریافت می کند، ما می توانیم امیدوار باشیم که در نهایت در تمام رشته های کاملاً هوشمندانه، ماشین ها با انسان ها رقابت خواهند کرد. البته با این فرض که این حوزه آموزشی، آموزش اخلاق را هم در بر داشته باشد.”
شبیه سازی ذهن کودک، فقط یکی از استراتژی های است که در طراحی فاعل های هوشمند از آن استفاده شده است. “در 1975، ابداع الگوریتم های ژنتیکی توسط “جان هالند” ، باعث ایجاد هیجانات بیشتری درباره پتانسیل رشد برنامه های تطبیقی شد. از الگوریتم های ژنتیکی برای اهداف زیادی استفاده می شد، برای مثال، پیش بینی بازار سهام و شکستن کدها. (ویکی پدیا بیش از 30 کاربرد آن را فهرست کرده است). همچنین کارهای هالند این ایده اساسی را مطرح کرد که کامپیوترها حتی ممکن است تبدیل شوند به محیطی که در آن محیط نوع جدیدی از زندگی رشد خواهد کرد: یعنی زندگی مصنوعی (Alife).”
3-3-1شبیه سازی تکامل

                                                    .