زندگی

چالش هاى معنوى و اخلاقى هوش مصنوعى

ترجمه: آرش اشراق

چندين دهه است كه مباحث اجتماعى و انسانى درباره هوش مصنوعى، سازمان  ها و افراد مشتاق و پيگير اين مقولات را به خود مشغول داشته است. اكنون ديگر هيچ دليلى وجود ندارد كه ماشين هاى هوشمند و روبات هايى كه در پيشگويى ها و داستان هاى علمى تخيلى پرطرفدار بين سال هاى اواخر قرن نوزدهم تا دهه ۱۹۶۰ وجود داشتند، به وجود نيايند. ما در همان آينده تخيلى زندگى مى كنيم، عصر طلايى تكنولوژى را تجربه مى كنيم و در چشم اندازمان هيچ محدوديت و غايتى متصور نيست.
شايد در وهله اول مقوله كار باشد كه نياز به هوش مصنوعى را برجسته مى كند و از سه جنبه نظرات مطروحه در اين باره و ملزومات اخلاقى و معنوى آنها را مى توان دسته بندى كرد. نخست آن كه وقتى بخشى از ما انسان ها در تنگدستى و بيكارى به سر مى بريم دليلى وجود ندارد كه كارگران مكانيكى(آن  هم به صورتى كه قادر به تفكر مستقل باشند) توليد شوند. گذشته از آن كه در چنين حالتى امكان آن كه همان كارگران مكانيكى اما در اين باره با انسان ها به بحث بنشينند، وجود دارد!
گروهى ديگر استدلال مى كنند كه جامعه نمى تواند بدون هيچگونه استعانتى از ماشين هاى هوشمند، پيشرفت شايسته اى داشته باشد. گروه سوم هم چندان درگير مسئله نمى شوند و آن را بحث اجتماعى پيش پا افتاده اى بيش نمى دانند.در سطحى خُردنگرانه تر در مورد حد و گستره ساخت ماشين هاى هوشمند و اينكه اين ماشين ها بايد شبيه چه چيزى باشند هم اختلاف نظرها نمايان است. كما اينكه با هر يك از رويكردهاى فوق به سراغ ماشين هاى هوشمند رويم اين سئوالات پاسخ ها و تحليل هاى مختلفى خواهند يافت.
ساختار و عملكرد مغز انسان حاصل ميليون ها سال بقا و رفتار اجتماعى است و ما هنوز هم در اين پروسه تكاملى قرار داريم. تقليد از عملكرد مغز چالش بزرگى در دنياى هوش مصنوعى است و اگر مبناى قضاوت، قدرت و پيچيدگى پردازنده هاى موجود باشد، بايد اعتراف كرد كه هنوز چندين دهه تا رسيدن و شبيه سازى بسيار ابتدايى هوش انسانى راه مانده است.
از ديگر سوى اگر ما خواستيم و توانستيم كه روبات هاى انسان نما (
android robots) را چنان خبره طراحى كنيم كه با ما به رقابت برخيزند؛ هنوز اين پرسش به قدرت خود باقيست كه كدام ارزش هاى معنوى و اخلاقى را بايد به آنها تزريق كنيم؟ يعنى با توجه به ناهمگونى هاى عميق فرهنگى، دينى، اخلاقى و معنوى تمدن بشرى، قبل از ساخت هر روباتى دقيقاً بايد بدانيم براى كجا و به چه منظور ساخته خواهد شد. براى مثال آيا بايد ما روبات هايى بسازيم كه اعتقادات دينى خاصى داشته باشند؟ مثلاً آدم آهنى هايى توليد شوند كه كاتوليك، مسلمان يا بودايى باشند؟ يا حتى در حالتى ظالمانه مثلاً كاپيتاليست باشند تا بهره ورى افزون شود؟
به همان ميزان كه تعريف و جداسازى آن مفاهيم بشرى مشكلند، تزريق جداگانه و در عين حال مركب آنها به يك ماشين هوشمند نيز سخت و صعب است. افزون بر اينكه تعيين نحوه كاربرد اين ارزش ها هم پرسشى ديگر است. مثلاً اگر مجموعه اى از ارزش هاى معنوى و اخلاقى مرگ خودخواسته يك بيمار لاعلاج (
euthanasia) را روا دانست و مجموعه اى ديگر از ارزش هاى مشابه آن را نهى كرد (همان حالتى كه در مغز يك انسان به راحتى اتفاق مى افتد) چه راهى توسط يك مصنوع هوشمند در پيش گرفته خواهد شد؟ مبنا كدام است؟البته مى توان چنين ناهمگونى اى را در افكار و اعمال بشرى نيز سراغ كرد. اما وقتى ناهمگونى هاى بشرى اينقدر زياد و دردسرساز است چه لزومى دارد كه درگير ناهمگونى هاى مشابه هوش مصنوعى شويم؟
آيا به اندازه كافى مشكلات بيولوژيكى در اين زمينه نداريم؟ يا مى خواهيم دقيقاً آدم بسازيم و خدا بشويم؟
اصلاً آيا منظور ما از خودمختارى يك ماشين چيزى نظير فضاپيماهاى بى سرنشين است يا روباتى را در ذهن مى پرورانيم كه انديشه و ظاهر و كردار آدمى را تقليد مى كند؟ و بعد هم در نظر داريم همگام با جامعه اى كه هر روز خودكارتر مى شود، فرزندانمان، موسسات آموزشى، تجارت و حتى دولت ها را به دست اين ماشين هاى معرفت دار بسپاريم؟
پاسخ ها در اين زمينه روشن نيست. تحقيقات بر روى جنبه هاى گوناگون هوش مصنوعى گسترده و ضمناً متمايزند. در حالى كه ما حتى در مورد تعريف دقيق هوش هم به توافق نظر نرسيده ايم، در پى ساختن مصنوعى آن هستيم. بنابراين چه كسى مى تواند نظر درست را در هوش مصنوعى بدهد؟
اما اگر ما بتوانيم ماشين هاى انسان نما را چنان هوشمندانه طراحى كنيم كه رفتارى نظير انسان ها از خود بروز دهند، چه الزامى هست كه آنها براى هميشه تابع و فرمانبر ما بمانند؟ايساك آسيموف نويسنده داستان هاى علمى تخيلى كه به خاطر داستان هاى روباتى خود مشهور است، سه قانون را براى مغزهاى پوزيترونى روبات هايش ارائه داد تا انسان ها در مقابل انقلاب روبات ها و همچنين جلوگيرى از سوءاستفاده ديگر انسان ها از رباتها محافظت شوند:
يك روبات نبايد به انسان آسيب برساند يا با كاهلى خود باعث آسيب ديدن انسان شود.
يك روبات بايد از دستوراتى كه انسان ها به او مى دهند اطاعت كند، مگر آنكه مستلزم نقض قانون اول باشد.
يك روبات بايد وجود خود را تا زمانى كه با قوانين اول و دوم تضادى نداشته باشد، حفظ كند.
در سطحى كاربردى تر، اگر ما بتوانيم مصنوع هوشمندى را در قالب انسان نما يا ماشينى به صورت وجودى خنثى بسازيم و فى المثل صرفاً جهت تدريس به كار گيريم باز در چنين حالتى هم مشكلات وجود دارند چه آنكه گرچه موضوعاتى هستند- همانند جغرافيا يا مهارت هاى فنى- كه شايد مستلزم هيچ ارزش معنوى، اخلاقى، يا دينى به ناچار نيستند اما باز هم روبات ها با آنها مشكل دارند. مثلاً اگر قرار باشد يك روبات اين مقولات را هم تدريس كند، از طرف بچه ها با چنين پرسش هايى روبه رو خواهد شد: بله... درست است، اما چرا؟ در چنين حالتى چه واكنشى يك روبات خواهد داشت؟ آيا بايد پيغام هايى چون غيرقابل محاسبه يا اين سئوال تعريف نشده است يا چرا سئوال معتبر نيست؟ لطفاً دوباره طرح كنيد. تحويل يك دانش آموز داد؟
چگونه مى توان به چيزى اعتماد كرد كه در مقابل پرسشچرا خلع سلاح مى شود و هرگونه واكنش غير قابل پيش بينى در مقابل هرگونه كنشى كه مستلزم پردازش پرسش هاى مداوم چرا و چگونه باشد از آن محتمل است؟
پرسش هايى از اين دست فراوانند و هر تفكر و تاملى در مورد هوش مصنوعى مى تواند آنها را توليد و بازتوليد كند. تصميم با شماست.