• قسمت دوم و پایانی: حکمت عملی مصنوعی

      چرا باید حکمت عملی مصنوعی را در هوش مصنوعی شبیهسازی کنیم؟

      قسمت دوم و پایانی: حکمت عملی مصنوعی

      قسمت دوم و پایانی: حکمت عملی مصنوعی

      در قسمت قبل درباره حکمت عملی و تقسیم آن به دو نوع مصنوعی و غیرمصنوعی توضیح دادیم. در این قسمت به بررسی برخی زوایای حکمت عملی مصنوعی میپردازیم.

      نقش حکمت عملی مصنوعی در استدلال اخلاقی اتوماتیکشده
      آیا میتوان کارکردی معادل کارکرد حکمت عملی در انسانهای شایسته را در ماشینها برنامهنویسی کرد؟ برای دستیابی به این هدف لازم است ماشینهایی را طراحی کنیم که در تعاملات خود با عاملهای انسانی از خود حکمت عملی بروز میدهند. دستیابی به این هدف مطلقا کار سادهای نیست، چرا که همه عاملهای انسانی هم در استدلال حکیمانه ماهر نیستند و این انتظار زیادی از ماشین است که مهارت حکمت عملی را در خود جای دهد. مانع دشوار دیگری که پیش روست، دستیابی به آگاهی مصنوعی است، چرا که لازمه حکمت عملی، داشتن توانایی تأمل و عمل آگاهانه و درست است. با همه اینها، دستیابی به حکمت عملی مصنوعی امری ضروری است، از این رو که برای شکلگیری اعتماد میان کاربران هوش مصنوعی و روباتها و میان خود سیستمهای هوشمند، قدرت تصمیمگیری اخلاقی مورد نیاز است. در چنین حالتی است که میتوان آیندهای را تصورکرد که در آن انسانها با آسودگی خاطر زیست میکنند و نگران عواقب و تأثیرات نامطلوب تصمیمهای سیستمهای خودمختار روی زندگیشان نخواهند بود.
      بیانیهای برای حکمت عملی مصنوعی
      حوزه مطالعات حکمت عملی مصنوعی حوزه میانرشتهای نوظهوری است که توجهات را به سوی خود جلب کرده است. در ادامه به طور خلاصه به مواردی اشاره میکنیم که میتوان از آنها تحت عنوان بیانیهای برای حکمت عملی مصنوعی نام برد:
      • حکمت عملی نقشی اساسی در استدلال اخلاقی سطح بالا ایفا میکند و این پرسش، پرسش بسیار مهمی است که آیا میتوان معادل کارکردیاش را در ماشینها برنامهنویسی کرد؟
      • حکمت عملی مصنوعی، قابلیتی ضروری برای ساختن عاملهای اخلاقی مصنوعی است؛ هرچند که هنوز نمیدانیم آیا میتوان ماشینهایی با چنین قابلیتی ساخت یا خیر.
      • حکمت عملی مصنوعی از تلاشهای انجامشده در سنت کلاسیک اخلاق متأثر است، اما تنها به این منابع محدود نیست. به بیان دیگر، به دنبال توصیف کامل حکمت عملی به گونهای که در اخلاق کلاسیک مطرح شده نیست. همچنین، نمیکوشد که فهمی کامل از مفهوم حکمت عملی انسانی در سطح نظری و عصبشناختی پیدا کند. اگرچه، از کمکهای مطالعات در این حوزهها بهره میگیرد.
      • ادعای این حوزه این نیست که ماشین‌‌ها میتوانند عاملهای اخلاقی کامل شوند. کمال اخلاقی برای هیچ عامل اخلاقیای ابتدا به ساکن ممکن نیست. حکمت عملی مصنوعی به دنبال آن است که سیستم محاسباتیای را توضیح دهد که با هدف تعامل اخلاقی با عاملهای انسانی و مصنوعی طراحی شده و میتواند در موقعیتهای جدید هم راهحلهای خلاقانهای ارائه دهد.
      • کوششها برای دستیابی به حکمت عملی مصنوعی به شیوهها و در قالبهای متنوعی در حال انجام است؛ مثلا روش یادگیری ماشین تکاملی. اما این نگرانی در این حوزه به رسمیت شناخته میشود که ممکن است ماشینها صرفا بتوانند قضاوت اخلاقی را برای مدتی معین شبیهسازی کنند و همیشه این خطر وجود دارد که این ماشینها فقط نمود و تمثالی از عاملهای اخلاقی باشند. برای مقابله با این خطر، حوزه حکمت عملی مصنوعی معیارهای سختگیرانهای را برای قضاوت درباره استدلال اخلاقی ماشینها تنظیم میکند، هرچند که دستیابی به چنین ماشینهایی در آینده نزدیک ناممکن به نظر میرسد.
      نظر جان دیوئی در باب نقش حکمت عملی در تفکر آگاهانه
      حکمت عملی مفهومی مهجور و کهن نیست و طی قرنها همواره مورد توجه اندیشمندان بوده است. جان دیوئی یکی از مهمترین افرادی است که در باب این مفهوم تأملاتی داشته و آن را بسط داده است. بر خلاف فلاسفه باستان که حکمت عملی را تنها به فلاسفه بسیار هوشمند نسبت میدادهاند، دیوئی این مفهوم را به گونهای بازتعریف میکند که نقشی محوری در همه انواع استدلال پیدا کند. چرا که وقتی تلاش میکنیم هر علم یا مهارتی را کاربردی کنیم، لاجرم وارد حوزههای اجتماعی میشویم و کنشورزی موفق در این حوزهها مستلزم استفاده از حکمت عملی است. اگر با دیوئی همنظر باشیم، حکمت عملی بخشی از آن چیزی است که از ما موجوداتی شایسته و کفایتمند، آگاه، و باوجدان میسازد.
      اعتماد اخلاقی عاملهای هوش مصنوعی و روباتها
      یکی از پیچیدهترین موضوعاتی که در حوزه اخلاق هوش مصنوعی پیگیری میشود، رابطه مبتنی بر اعتماد میان این فناوریها با انسانها و با خودشان است. در اینجا ما موضوع را محدود میکنیم به اعتماد فرونتیک یا اعتماد مبتنی بر حکمت عملی. عاملهای فرونتیک مصنوعی باید بتوانند ما را متقاعد کنند که وقتی در حال تعامل با ما هستند، شخصیت اخلاقی ما را در نظر میگیرند و متناسب با آن تصمیمات اخلاقی خود را اتخاذ میکنند. ما انسانها از یکدیگر میآموزیم که چطور شخصیت اخلاقی خود را پرورش دهیم و ماشینهای اخلاقی نیز برای پیدا کردن درکی از شخصیت اخلاقی ما باید در فرایندهای اجتماعی مهم ما مشارکت داشته باشند. به عبارت دیگر، این ماشینها باید بتوانند در جایگاه آموزگاران اخلاقی نیز در جامعه قرار بگیرند. در چنین تعاملی با ماشینها باید به ما ضمانت داده شود که ماشینهایی که به آنها اعتماد میکنیم، دارای «شخصیت خوبی» هستند و استحقاق اعتماد ما را دارند. در صورتی که حکمت عملی مصنوعی به قدر کافی توسعه نیافته باشد، غیر ممکن است که عاملهای اخلاقی مصنوعی داشته باشیم و به همین دلیل، باید کاربردهای هوش مصنوعی و روباتها را محدود کنیم و تنها از ماشینهایی استفاده کنیم که تأثیرات اخلاقی چندان مهمی ندارند.
      چگونه میتوانیم به نحوی اخلاقی به هوش مصنوعی و روباتها اعتماد کنیم؟
      مارک کاکلبرگ[1] (2012)، یکی از برجستهترین فیلسوفان حوزه هوش مصنوعی معاصر معتقد است که دو شیوه مجزا را میتوان برای بررسی مقوله اعتماد در هوش مصنوعی و روباتیک تصور کرد:
      • در شیوه اول که آن را شیوه «قراردادگرایانه-فردگرایانه[2]» مینامیم، ما میتوانیم وارد رابطه مبتنی بر اعتمادی با ماشین شویم همانگونه که چنین رابطهای را با شرکتها یا هستومندهای حقوقی دیگر، وقتی به محصولات و خدمات آنها اعتماد میکنیم، برقرار میکنیم. چنین روابطی کمابیش محتاطانه هستند، اما قدمتی دیرینه در جوامع ما دارند. لوچیانو فلوریدی[3] و ماریاروزاریا تادئو[4] (2011) از جمله افرادی هستند که کوشیدهاند اختلافات و نکات جزئیای را یادآور شوند که باید در این سیستمها به آنها توجه کرد تا تبدیل به سیستمهای کفایتمندتر و قابل اعتمادتری شوند.
      • شیوه دومی که کاکلبرگ آن را معرفی میکند، رویکرد «پدیدارشناختی-اجتماعی[5]» نام دارد. این روابط، مبتنی بر اعتمادی است که انسانها اغلب با انسانهای دیگر برقرار میکنند و پیوندهای اجتماعی در بستر این روابط رشد مییابند و روابط معنادار و عمیقی شکل میگیرد. کاکلبرگ نسبت به شکلگیری چنین روابطی با هوش مصنوعی و روباتها خوشبین نیست و آنها را روابطی مبتنی بر اعتماد مجازی یا شبهاعتماد میداند. سیستمها در چنین روابطی با ما وارد بازیهای اجتماعی میشوند و اعتماد ما را جلب میکنند، اما این روابط مخاطراتی برای ما خواهد داشت. ممکن است ما فریب بخوریم که در رابطهای مبتنی بر اعتماد اخلاقی با هوش مصنوعی و روباتها هستیم، اما در واقع اینطور نیست و در برخی از موقعیتها این میتواند خطراتی به همراه داشته باشد. در یکی از پژوهشهای انجام شده در این زمینه (Grodzinsky, Miller, Wolf: 2011) روشی طراحی شده که ممکن است بتواند این مسئله را کمرنگتر کند. در این روش مفهوم جدیدی از «اعتماد» معرفی میشود که هم شامل اعتماد سنتی و چهره به چهره میان انسانهاست و هم دربردارنده روابطی است که از طریق واسطههای الکترونیکی شکل میگیرند و همچنین روابطی که عاملهای مصنوعی در آنها حضور دارند. این مفهوم از اعتماد مفهوم وسیعتری است که رابطه انسان/انسان و رابطه انسان/هوش مصنوعی را دربرمیگیرد.
      اگر بخواهیم با ماشینها وارد رابطه مبتنی بر اعتماد پدیدارشناختی-اجتماعی شویم، نیازمند طراحی حکمت عملی مصنوعی هستیم. در این صورت، انواع جدیدی از جوامع را تجربه خواهیم کرد. اما اگر به این نتیجه برسیم که دستیابی به آگاهی مصنوعی عملا ناممکن است، رویای تولد چنین جوامعی نیز عملا محقق نخواهد شد.

      برگرفته از:
      Sullins, J.P. (2019). The Role of Consciousness and Artificial Phronēsis in AI Ethical Reasoning. AAAI Spring Symposium: Towards Conscious AI Systems.
      سعیده بابایی، پژوهشگر پسادکتری اخلاق هوش مصنوعی دانشگاه توبینگن
      تهیهشده در: گروه مطالعات اخلاقی



      [1] Mark Coeckelbergh
      [2] contractarian-individualistic
      [3] Luciano Floridi
      [4] Mariarosaria Taddeo
      [5] phenomenological-social
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1515674311
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir