در قسمت قبل درباره حکمت عملی و تقسیم آن به دو نوع مصنوعی و غیرمصنوعی توضیح دادیم. در این قسمت به بررسی برخی زوایای حکمت عملی مصنوعی میپردازیم.
نقش حکمت عملی مصنوعی در استدلال اخلاقی اتوماتیکشده
آیا می
توان کارکردی معادل کارکرد حکمت عملی در انسان
های شایسته را در ماشین
ها برنامه
نویسی کرد؟ برای دستیابی به این هدف لازم است ماشین
هایی را طراحی کنیم که در تعاملات خود با عامل
های انسانی از خود حکمت عملی بروز می
دهند. دستیابی به این هدف مطلقا کار ساده
ای نیست، چرا که همه عامل
های انسانی هم در استدلال حکیمانه ماهر نیستند و این انتظار زیادی از ماشین است که مهارت حکمت عملی را در خود جای دهد. مانع دشوار دیگری که پیش روست، دستیابی به آگاهی مصنوعی است، چرا که لازمه حکمت عملی، داشتن توانایی تأمل و عمل آگاهانه و درست است. با همه اینها، دستیابی به حکمت عملی مصنوعی امری ضروری است، از این رو که برای شکل
گیری اعتماد میان کاربران هوش مصنوعی و روبات
ها و میان خود سیستم
های هوشمند، قدرت تصمیم
گیری اخلاقی مورد نیاز است. در چنین حالتی است که می
توان آینده
ای را تصورکرد که در آن انسان
ها با آسودگی خاطر زیست می
کنند و نگران عواقب و تأثیرات نامطلوب تصمیم
های سیستم
های خودمختار روی زندگیشان نخواهند بود.
بیانیهای برای حکمت عملی مصنوعی
حوزه مطالعات حکمت عملی مصنوعی حوزه
میان
رشته
ای نوظهوری است که توجهات را به سوی خود جلب کرده است. در ادامه به طور خلاصه به مواردی اشاره می
کنیم که می
توان از آنها تحت عنوان بیانیه
ای برای حکمت عملی مصنوعی نام برد:
- حکمت عملی نقشی اساسی در استدلال اخلاقی سطح بالا ایفا میکند و این پرسش، پرسش بسیار مهمی است که آیا میتوان معادل کارکردیاش را در ماشینها برنامهنویسی کرد؟
- حکمت عملی مصنوعی، قابلیتی ضروری برای ساختن عاملهای اخلاقی مصنوعی است؛ هرچند که هنوز نمیدانیم آیا میتوان ماشینهایی با چنین قابلیتی ساخت یا خیر.
- حکمت عملی مصنوعی از تلاشهای انجامشده در سنت کلاسیک اخلاق متأثر است، اما تنها به این منابع محدود نیست. به بیان دیگر، به دنبال توصیف کامل حکمت عملی به گونهای که در اخلاق کلاسیک مطرح شده نیست. همچنین، نمیکوشد که فهمی کامل از مفهوم حکمت عملی انسانی در سطح نظری و عصبشناختی پیدا کند. اگرچه، از کمکهای مطالعات در این حوزهها بهره میگیرد.
- ادعای این حوزه این نیست که ماشینها میتوانند عاملهای اخلاقی کامل شوند. کمال اخلاقی برای هیچ عامل اخلاقیای ابتدا به ساکن ممکن نیست. حکمت عملی مصنوعی به دنبال آن است که سیستم محاسباتیای را توضیح دهد که با هدف تعامل اخلاقی با عاملهای انسانی و مصنوعی طراحی شده و میتواند در موقعیتهای جدید هم راهحلهای خلاقانهای ارائه دهد.
- کوششها برای دستیابی به حکمت عملی مصنوعی به شیوهها و در قالبهای متنوعی در حال انجام است؛ مثلا روش یادگیری ماشین تکاملی. اما این نگرانی در این حوزه به رسمیت شناخته میشود که ممکن است ماشینها صرفا بتوانند قضاوت اخلاقی را برای مدتی معین شبیهسازی کنند و همیشه این خطر وجود دارد که این ماشینها فقط نمود و تمثالی از عاملهای اخلاقی باشند. برای مقابله با این خطر، حوزه حکمت عملی مصنوعی معیارهای سختگیرانهای را برای قضاوت درباره استدلال اخلاقی ماشینها تنظیم میکند، هرچند که دستیابی به چنین ماشینهایی در آینده نزدیک ناممکن به نظر میرسد.
نظر جان دیوئی در باب نقش حکمت عملی در تفکر آگاهانه
حکمت عملی مفهومی مهجور و کهن نیست و طی قرن
ها همواره مورد توجه اندیشمندان بوده است. جان دیوئی یکی از مهمترین افرادی است که در باب این مفهوم تأملاتی داشته و آن را بسط داده است. بر خلاف فلاسفه باستان که حکمت عملی را تنها به فلاسفه بسیار هوشمند نسبت می
داده
اند، دیوئی این مفهوم را به گونه
ای بازتعریف می
کند که نقشی محوری در همه انواع استدلال پیدا کند. چرا که وقتی تلاش می
کنیم هر علم یا مهارتی را کاربردی کنیم، لاجرم وارد حوزه
های اجتماعی می
شویم و کنش
ورزی موفق در این حوزه
ها مستلزم استفاده از حکمت عملی است. اگر با دیوئی هم
نظر باشیم، حکمت عملی بخشی از آن چیزی است که از ما موجوداتی شایسته و کفایتمند، آگاه، و باوجدان می
سازد.
اعتماد اخلاقی عاملهای هوش مصنوعی و روباتها
یکی از پیچیده
ترین موضوعاتی که در حوزه اخلاق هوش مصنوعی پیگیری می
شود، رابطه مبتنی بر اعتماد میان این فناوری
ها با انسان
ها و با خودشان است. در اینجا ما موضوع را محدود می
کنیم به اعتماد فرونتیک یا اعتماد مبتنی بر حکمت عملی. عامل
های فرونتیک مصنوعی باید بتوانند ما را متقاعد کنند که وقتی در حال تعامل با ما هستند، شخصیت اخلاقی ما را در نظر می
گیرند و متناسب با آن تصمیمات اخلاقی خود را اتخاذ می
کنند. ما انسان
ها از یکدیگر می
آموزیم که چطور شخصیت اخلاقی خود را پرورش دهیم و ماشین
های اخلاقی نیز برای پیدا کردن درکی از شخصیت اخلاقی ما باید در فرایندهای اجتماعی مهم ما مشارکت داشته باشند. به عبارت دیگر، این ماشین
ها باید بتوانند در جایگاه آموزگاران اخلاقی نیز در جامعه قرار بگیرند. در چنین تعاملی با ماشین
ها باید به ما ضمانت داده شود که ماشین
هایی که به آنها اعتماد می
کنیم، دارای «شخصیت خوبی» هستند و استحقاق اعتماد ما را دارند. در صورتی که حکمت عملی مصنوعی به قدر کافی توسعه نیافته باشد، غیر ممکن است که عامل
های اخلاقی مصنوعی داشته باشیم و به همین دلیل، باید کاربردهای هوش مصنوعی و روبات
ها را محدود کنیم و تنها از ماشین
هایی استفاده کنیم که تأثیرات اخلاقی چندان مهمی ندارند.
چگونه میتوانیم به نحوی اخلاقی به هوش مصنوعی و روباتها اعتماد کنیم؟
مارک کاکلبرگ
[1] (2012)، یکی از برجسته
ترین فیلسوفان حوزه هوش مصنوعی معاصر معتقد است که دو شیوه مجزا را می
توان برای بررسی مقوله اعتماد در هوش مصنوعی و روباتیک تصور کرد:
- در شیوه اول که آن را شیوه «قراردادگرایانه-فردگرایانه[2]» مینامیم، ما میتوانیم وارد رابطه مبتنی بر اعتمادی با ماشین شویم همانگونه که چنین رابطهای را با شرکتها یا هستومندهای حقوقی دیگر، وقتی به محصولات و خدمات آنها اعتماد میکنیم، برقرار میکنیم. چنین روابطی کمابیش محتاطانه هستند، اما قدمتی دیرینه در جوامع ما دارند. لوچیانو فلوریدی[3] و ماریاروزاریا تادئو[4] (2011) از جمله افرادی هستند که کوشیدهاند اختلافات و نکات جزئیای را یادآور شوند که باید در این سیستمها به آنها توجه کرد تا تبدیل به سیستمهای کفایتمندتر و قابل اعتمادتری شوند.
- شیوه دومی که کاکلبرگ آن را معرفی میکند، رویکرد «پدیدارشناختی-اجتماعی[5]» نام دارد. این روابط، مبتنی بر اعتمادی است که انسانها اغلب با انسانهای دیگر برقرار میکنند و پیوندهای اجتماعی در بستر این روابط رشد مییابند و روابط معنادار و عمیقی شکل میگیرد. کاکلبرگ نسبت به شکلگیری چنین روابطی با هوش مصنوعی و روباتها خوشبین نیست و آنها را روابطی مبتنی بر اعتماد مجازی یا شبهاعتماد میداند. سیستمها در چنین روابطی با ما وارد بازیهای اجتماعی میشوند و اعتماد ما را جلب میکنند، اما این روابط مخاطراتی برای ما خواهد داشت. ممکن است ما فریب بخوریم که در رابطهای مبتنی بر اعتماد اخلاقی با هوش مصنوعی و روباتها هستیم، اما در واقع اینطور نیست و در برخی از موقعیتها این میتواند خطراتی به همراه داشته باشد. در یکی از پژوهشهای انجام شده در این زمینه (Grodzinsky, Miller, Wolf: 2011) روشی طراحی شده که ممکن است بتواند این مسئله را کمرنگتر کند. در این روش مفهوم جدیدی از «اعتماد» معرفی میشود که هم شامل اعتماد سنتی و چهره به چهره میان انسانهاست و هم دربردارنده روابطی است که از طریق واسطههای الکترونیکی شکل میگیرند و همچنین روابطی که عاملهای مصنوعی در آنها حضور دارند. این مفهوم از اعتماد مفهوم وسیعتری است که رابطه انسان/انسان و رابطه انسان/هوش مصنوعی را دربرمیگیرد.
اگر بخواهیم با ماشین
ها وارد رابطه مبتنی بر اعتماد پدیدارشناختی-اجتماعی شویم، نیازمند طراحی حکمت عملی مصنوعی هستیم. در این صورت، انواع جدیدی از جوامع را تجربه خواهیم کرد. اما اگر به این نتیجه برسیم که دستیابی به آگاهی مصنوعی عملا ناممکن است، رویای تولد چنین جوامعی نیز عملا محقق نخواهد شد.
برگرفته از:
Sullins, J.P. (2019). The Role of Consciousness and Artificial Phronēsis in AI Ethical Reasoning. AAAI Spring Symposium: Towards Conscious AI Systems
.
سعیده بابایی، پژوهشگر پسادکتری اخلاق هوش مصنوعی دانشگاه توبینگن
تهیهشده در: گروه مطالعات اخلاقی
[2] contractarian-individualistic
[5] phenomenological-social