حکمت عملی مصنوعی و غیر مصنوعی
از یک سو، آگاهی ساده
ترین چیزی است که می
توان تجربه کرد، چرا که آگاهی لازمه ادراکاتِ کاملا تجربه
شده و غنی برای ما انسان
هاست. از دیگر سو، آگاهی پدیده
ای است که تبیین آن به گونه
ای که بتوان آن را در یک ماشین شبیه
سازی کرد، بسیار دشوار است. بسیاری از تلاش
های صورت
گرفته در اخلاق هوش مصنوعی و روباتیک نیازمند این نیستند که ماشینِ ساخته
شده دارای آگاهی باشد. به طور کلی، می
توان سه دسته عامل مصنوعی را بر اساس میزان توانایی
های اخلاقی
شان از یکدیگر تفکیک کرد:
- عاملهای دارای تاثیر اخلاقی[1] (EIA)
این دسته از عامل
ها برای عمل کردن به گونه
ای
که عمل می
کنند، نیازی به آگاهی ندارند. اما از این جهت جالب توجه
اند که در کارکردهای خود نوعی خودمختاری نشان می
دهند و می
توانند بر عامل
های انسانی تأثیراتی بگذارند که دارای اهمیت اخلاقی است. مثال خودروهای خودران مصداقی از این دسته از عاملهاست که ممکن است منجر به کشته شدن عابر در اثر تصادف شود در حالی که به این عمل خود و عواقبش «آگاهی» ندارد. این سیستم صرفا بر اساس برنامه
ای که برایش نوشته شده و اطلاعاتی که از سنسورهایش دریافت می
کند، عمل خود را تنظیم می
کند نه بر اساس تجربه آگاهانه خود از این موقعیت و در نتیجه، هیچگونه واکنش احساسی به این حادثه ندارد و پشیمانی برای او معنایی ندارد و کسی نیز او را سرزنش نمی
کند.
- عاملهای مصنوعی دارای اخلاقیات[2] (AEA)
در این عامل
ها ملاحظات اخلاقی به نحوی صریح برنامه
نویسی شده و در کارکرد آنها بروز دارد و از این جهت، در طراحی آنها یک گام فراتر از دسته قبلی پیش رفته
ایم. مثالی که برای این دسته می
توان ارائه کرد، خودروهای خودرانی هستند که به گونه
ای طراحی می
شوند تا بتوانند محاسبات اخلاقی را در تصمیم
گیر
ی
های خود لحاظ کنند؛ مثلا وقتی در یک موقعیت حتمی تصادف قرار می
گیرند، در انتخاب میان سرنشینان خود و سرنشینان خودروی دیگر بررسی کنند که کدام حالت مخاطرات کمتری به همراه دارد. با این وجود، این دسته
از عامل
ها نمی
توانند مسئولیت کارهای خود را بپذیرند و مسئولیت عواقب ناخواسته احتمالی همچنان با انسان
هاست. این عامل
ها هم نسبت به رفتارهای خود آگاه نیستند، حتی اگر به نظر برسد که برای تصمیم
گیری به نحوی اخلاقی، به بیرون از خود نگاه می
کنند و «گویی» این تصمیم
را به نحوی آگاهانه می
گیرند.
- عاملهای اخلاقی مصنوعی[3] (AMA)
فقط زمانی که این دسته از ماشین
ها را داشته باشیم، می
توانیم ادعا کنیم که آگاهی نقش مهمی را ایفا می
کند. این عامل
ها می
توانند از میان رفتارهای مختلف، رفتارهایی را انتخاب کنند که متناسب با موقعیت فعلی است و این نشانگر نوعی استدلال عملی مشابه آن چیزی است که در اکثر عامل
های اخلاقی توانمند در استدلال اخلاقی می
توان دید. این به این معناست که این سیستم یک عامل اخلاقی آگاه است و از خود حکمت عملی مصنوعی بروز می
دهد که در ادامه توضیح خواهیم داد که مقصود از حکمت عملی مصنوعی چیست. همچنین، به این بحث می
پردازیم که در حالی که آگاهی لازمه تصمیم
گیری دو دسته اول از عامل
ها نیست، اما نقش مهمی در توسعه عامل
های اخلاقی مصنوعی پیچیده ایفا می
کند و اتفاقا این دسته از عامل
ها هستند که تعاملات سودمندتری با انسان
ها در موقعیت
های اجتماعی پیچیده برقرار می
کنند.
حکمت عملی مفهومی فلسفی است که ممکن است به گوش افرادی خارج از فلسفه آشنا نباشد. اما اگر بخواهیم هوش مصنوعی و روبات
ها را موجوداتی دارای توانایی استدلال اخلاقی هوشمندانه طراحی کنیم، ناگزیریم با این مفهوم آشنا شویم تا بتوانیم فهم بهتری از اخلاق پیدا کنیم. این مفهوم قدمتی دیرینه دارد و عمدتا در ادبیات اخلاق فضیلت از آن نام برده می
شود که اشاره به مهارتی دارد که ما را قادر می
سازد زندگی خوبی را زیست کنیم. اگرچه که برای طراحی سیستم
های هوشمند نیازی به تسلط کامل بر اخلاق فضیلت نیست، اما آشنایی با ادبیات این نظریه می
تواند منجر به ارتقاء طراحی این سیستم
ها و افزایش قدرت استدلال اخلاقی آنها شود.
فرونسیس به معنای حکمت عملی
ای است که یک عامل اخلاقی آگاه از آن بهره می
گیرد تا با مسائل اخلاقی دشوار دست و پنجه نرم کند و به نحوی هوشمندانه از عهده حل آنها برآید. با توجه به اینکه مسائل اخلاقی همیشه جدیدند و نمی
توان مجموعه
ای از پاسخ
های از پیش معین را برای حل آنها تعیین کرد، مواجهه با موقعیت
هایی که نیازمند تصمیم
گیری اخلاقی هستند، نیازمند مهارت
هایی نظیر خلاقیت و یادگیری در عامل فرونتیک (فردی که دارای حکمت عملی است) هستند. هیچگونه قاعده/روند/الگوریتم عمومی
ای را نمی
توان تعیین کرد که با کمک آن بتوان میان ارزش
ها، اصول، هنجارها و رویکردهای مختلف بر اساس موقعیت فعلی انتخاب کرد و آنها را در این موقعیت به کار برد.
ممکن است عامل مصنوعی دارای اخلاقیات به نحوی موفق بر اساس یک یا دو مکتب فکری (مثلا اخلاق وظیفه
گرایانه یا اخلاق سودگرایانه یا چارچوب
های اخلاقی برآمده از سنت
های دینی یا حتی قوانین سه
گانه آیزاک آسیموف) طراحی شود. چنین عاملی احتمالا می
تواند در شرایط مشخصی موفق عمل کند، اما همچنان از حکمت عملی مصنوعی
ای که مختص عامل مصنوعی اخلاقی است، بی
بهره است. در حالی که حکمت عملی می
تواند علاوه بر اینکه عقلانیت جهانشمول را در بر می
گیرد، ملاحظات مربوط به ابعاد احساسی، بدنمندانه، سیاقمندانه و رابطه
مندانه هر موقعیت را نیز در محاسبات اخلاقی خود در نظر بگیرد و بر اساس همه این عوامل تصمیم
گیری نهایی را انجام دهد. این ابعاد همان مؤلفه
های غیر ضروری
ای هستند که کانت و دیگران معتقد بودند ارتباطی به اخلاق و تصمیم
گیری
های اخلاقی ندارند. اما چرا لازم است که خودمان را به دردسر طراحی عامل
های مصنوعی اخلاقی بیندازیم و بکوشیم حکمت عملی مصنوعی را در آنها جای
دهی کنیم؟ این مسیر بسیار دشوار و طولانی است؛ زیرا برای دستیابی به حکمت عملی باید ابتدا مسائلی همچون آگاهی مصنوعی، احساسات مصنوعی، بدنمندی ماشین و ... را حل کنیم که ممکن است نتوانیم آن
ها را در قالبی محاسباتی تبیین کنیم.
ادامه دارد ...
برگرفته از:
Sullins, J.P. (2019). The Role of Consciousness and Artificial Phronēsis in AI Ethical Reasoning.
AAAI Spring Symposium: Towards Conscious AI Systems.
سعیده بابایی، پژوهشگر پسادکتری اخلاق هوش مصنوعی دانشگاه توبینگن
تهیهشده در: گروه مطالعات اخلاقی
[1] Ethical Impact Agents
[2] Artificial Ethical Agents
[3] Artificial Moral Agents