• قسمت اول: حکمت عملی

      چرا باید حکمت عملی مصنوعی را در هوش مصنوعی شبیه‌سازی کنیم؟

      قسمت اول: حکمت عملی

      قسمت اول: حکمت عملی

      حکمت عملی مفهومی فلسفی است که اشاره به استدلال اخلاقی آگاهانه یا حکمت عملی دارد. ادعا می شود که در اغلب انسان های بالغ، این توانایی نقشی اساسی را دراستدلال اخلاقی سطح بالا ایفا می‌کند. اگر بخواهیم هوش مصنوعی توانایی استدلال در برابر مسائل اخلاقی را به گونه‌ای مشابه عملکرد انسان‌های کفایتمند دارا شود، نیازمند ساختن ماشین‌هایی هستیم که در تعاملاتشان با عامل‌های انسانی، از خود فرونسیس یا حکمت عملی نشان می‌دهند. در اینجا می‌خواهیم استدلال کنیم که بالاترین هدف اخلاق هوش مصنوعی همین است، اما برای دستیابی به این هدف نیازمند آنیم که ابتدا مسئله آگاهی مصنوعی را حل کنیم. دستیابی به حکمت عملی مصنوعی ضروری است، زیرا برای افزایش اعتماد کاربران به سیستم‌های هوش مصنوعی و روبات‌ها کفایت اخلاقی این سیستم‌ها لازم است.

      حکمت عملی مصنوعی و غیر مصنوعی
      از یک سو، آگاهی سادهترین چیزی است که میتوان تجربه کرد، چرا که آگاهی لازمه ادراکاتِ کاملا تجربهشده و غنی برای ما انسانهاست. از دیگر سو، آگاهی پدیدهای است که تبیین آن به گونهای که بتوان آن را در یک ماشین شبیهسازی کرد، بسیار دشوار است. بسیاری از تلاشهای صورتگرفته در اخلاق هوش مصنوعی و روباتیک نیازمند این نیستند که ماشینِ ساختهشده دارای آگاهی باشد. به طور کلی، میتوان سه دسته عامل مصنوعی را بر اساس میزان تواناییهای اخلاقیشان از یکدیگر تفکیک کرد:
      1. عاملهای دارای تاثیر اخلاقی[1] (EIA)
      این دسته از عاملها برای عمل کردن به گونهایکه عمل میکنند، نیازی به آگاهی ندارند. اما از این جهت جالب توجهاند که در کارکردهای خود نوعی خودمختاری نشان میدهند و میتوانند بر عاملهای انسانی تأثیراتی بگذارند که دارای اهمیت اخلاقی است. مثال خودروهای خودران مصداقی از این دسته از عاملهاست که ممکن است منجر به کشته شدن عابر در اثر تصادف شود در حالی که به این عمل خود و عواقبش «آگاهی» ندارد. این سیستم صرفا بر اساس برنامهای که برایش نوشته شده و اطلاعاتی که از سنسورهایش دریافت میکند، عمل خود را تنظیم میکند نه بر اساس تجربه آگاهانه خود از این موقعیت و در نتیجه، هیچگونه واکنش احساسی به این حادثه ندارد و پشیمانی برای او معنایی ندارد و کسی نیز او را سرزنش نمیکند.
      1. عاملهای مصنوعی دارای اخلاقیات[2] (AEA)
      در این عاملها ملاحظات اخلاقی به نحوی صریح برنامهنویسی شده و در کارکرد آنها بروز دارد و از این جهت، در طراحی آنها یک گام فراتر از دسته قبلی پیش رفتهایم. مثالی که برای این دسته میتوان ارائه کرد، خودروهای خودرانی هستند که به گونهای طراحی میشوند تا بتوانند محاسبات اخلاقی را در تصمیمگیریهای خود لحاظ کنند؛ مثلا وقتی در یک موقعیت حتمی تصادف قرار میگیرند، در انتخاب میان سرنشینان خود و سرنشینان خودروی دیگر بررسی کنند که کدام حالت مخاطرات کمتری به همراه دارد. با این وجود، این دسته از عاملها نمیتوانند مسئولیت کارهای خود را بپذیرند و مسئولیت عواقب ناخواسته احتمالی همچنان با انسانهاست. این عاملها هم نسبت به رفتارهای خود آگاه نیستند، حتی اگر به نظر برسد که برای تصمیمگیری به نحوی اخلاقی، به بیرون از خود نگاه میکنند و «گویی» این تصمیم را به نحوی آگاهانه میگیرند.
      1. عاملهای اخلاقی مصنوعی[3] (AMA)
      فقط زمانی که این دسته از ماشینها را داشته باشیم، میتوانیم ادعا کنیم که آگاهی نقش مهمی را ایفا میکند. این عاملها میتوانند از میان رفتارهای مختلف، رفتارهایی را انتخاب کنند که متناسب با موقعیت فعلی است و این نشانگر نوعی استدلال عملی مشابه آن چیزی است که در اکثر عاملهای اخلاقی توانمند در استدلال اخلاقی میتوان دید. این به این معناست که این سیستم یک عامل اخلاقی آگاه است و از خود حکمت عملی مصنوعی بروز میدهد که در ادامه توضیح خواهیم داد که مقصود از حکمت عملی مصنوعی چیست. همچنین، به این بحث میپردازیم که در حالی که آگاهی لازمه تصمیمگیری دو دسته اول از عاملها نیست، اما نقش مهمی در توسعه عاملهای اخلاقی مصنوعی پیچیده ایفا میکند و اتفاقا این دسته از عاملها هستند که تعاملات سودمندتری با انسانها در موقعیتهای اجتماعی پیچیده برقرار میکنند.
      حکمت عملی مفهومی فلسفی است که ممکن است به گوش افرادی خارج از فلسفه آشنا نباشد. اما اگر بخواهیم هوش مصنوعی و روباتها را موجوداتی دارای توانایی استدلال اخلاقی هوشمندانه طراحی کنیم، ناگزیریم با این مفهوم آشنا شویم تا بتوانیم فهم بهتری از اخلاق پیدا کنیم. این مفهوم قدمتی دیرینه دارد و عمدتا در ادبیات اخلاق فضیلت از آن نام برده میشود که اشاره به مهارتی دارد که ما را قادر میسازد زندگی خوبی را زیست کنیم. اگرچه که برای طراحی سیستمهای هوشمند نیازی به تسلط کامل بر اخلاق فضیلت نیست، اما آشنایی با ادبیات این نظریه میتواند منجر به ارتقاء طراحی این سیستمها و افزایش قدرت استدلال اخلاقی آنها شود.
      فرونسیس به معنای حکمت عملیای است که یک عامل اخلاقی آگاه از آن بهره میگیرد تا با مسائل اخلاقی دشوار دست و پنجه نرم کند و به نحوی هوشمندانه از عهده حل آنها برآید. با توجه به اینکه مسائل اخلاقی همیشه جدیدند و نمیتوان مجموعهای از پاسخهای از پیش معین را برای حل آنها تعیین کرد، مواجهه با موقعیتهایی که نیازمند تصمیمگیری اخلاقی هستند، نیازمند مهارتهایی نظیر خلاقیت و یادگیری در عامل فرونتیک (فردی که دارای حکمت عملی است) هستند. هیچگونه قاعده/روند/الگوریتم عمومیای را نمیتوان تعیین کرد که با کمک آن بتوان میان ارزشها، اصول، هنجارها و رویکردهای مختلف بر اساس موقعیت فعلی انتخاب کرد و آنها را در این موقعیت به کار برد.
      ممکن است عامل مصنوعی دارای اخلاقیات به نحوی موفق بر اساس یک یا دو مکتب فکری (مثلا اخلاق وظیفهگرایانه یا اخلاق سودگرایانه یا چارچوبهای اخلاقی برآمده از سنتهای دینی یا حتی قوانین سهگانه آیزاک آسیموف) طراحی شود. چنین عاملی احتمالا میتواند در شرایط مشخصی موفق عمل کند، اما همچنان از حکمت عملی مصنوعیای که مختص عامل مصنوعی اخلاقی است، بیبهره است. در حالی که حکمت عملی میتواند علاوه بر اینکه عقلانیت جهانشمول را در بر میگیرد، ملاحظات مربوط به ابعاد احساسی، بدنمندانه، سیاقمندانه و رابطهمندانه هر موقعیت را نیز در محاسبات اخلاقی خود در نظر بگیرد و بر اساس همه این عوامل تصمیمگیری نهایی را انجام دهد. این ابعاد همان مؤلفههای غیر ضروریای هستند که کانت و دیگران معتقد بودند ارتباطی به اخلاق و تصمیمگیریهای اخلاقی ندارند. اما چرا لازم است که خودمان را به دردسر طراحی عاملهای مصنوعی اخلاقی بیندازیم و بکوشیم حکمت عملی مصنوعی را در آنها جایدهی کنیم؟ این مسیر بسیار دشوار و طولانی است؛ زیرا برای دستیابی به حکمت عملی باید ابتدا مسائلی همچون آگاهی مصنوعی، احساسات مصنوعی، بدنمندی ماشین و ... را حل کنیم که ممکن است نتوانیم آنها را در قالبی محاسباتی تبیین کنیم.
      ادامه دارد ...
      برگرفته از:
      Sullins, J.P. (2019). The Role of Consciousness and Artificial Phronēsis in AI Ethical Reasoning. AAAI Spring Symposium: Towards Conscious AI Systems.
      سعیده بابایی، پژوهشگر پسادکتری اخلاق هوش مصنوعی دانشگاه توبینگن
      تهیهشده در: گروه مطالعات اخلاقی



      [1] Ethical Impact Agents
      [2] Artificial Ethical Agents
      [3] Artificial Moral Agents
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1997987629
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir