• قسمت اول: عاملیت اخلاقی

      الگوریتم‌ها به مثابه زامبیهای اخلاقی

      قسمت اول: عاملیت اخلاقی

      قسمت اول: عاملیت اخلاقی

      در فلسفه ذهن، زامبی‌ها موجوداتی هستند که شکل فیزیکی یکسانی با موجودات آگاه دارند، اما دارای تجربه اول شخص نیستند. از زامبی‌ها برای رد دیدگاه فیزیکالیسم...

      مقدمه
      در فلسفه ذهن، زامبیها موجوداتی هستند که شکل فیزیکی یکسانی با موجودات آگاه دارند، اما دارای تجربه اول شخص نیستند. از زامبیها برای رد دیدگاه فیزیکالیسم (دیدگاهی که میگوید جهان از مؤلفههای فیزیکی ساخته شده است) استفاده میشود. ما میکوشیم که از ایده آزمایش فکری زامبیها در حوزه اخلاق استفاده کنیم و بررسی کنیم که آیا عاملیت اخلاقی امری مستقل از توانایی حسی و تجربه آگاهانه است یا خیر. در این یادداشت ادعا میکنیم که الگوریتمها نوعی زامبی اخلاقی وظیفهمند هستند و با این تعریف، میتوان فهم بهتری از آنها پیدا کرد. دلیل اصلی برای اینکه نمیتوان الگوریتمها را خودمختار و پاسخگو در نظر گرفت نیز همین عدم توانایی حسی آنهاست. الگوریتمها و زامبیهای اخلاقی دارای فهم اخلاقی لازم برای پذیرفتن مسئولیت اخلاقی نیستند. برای آنکه درد را به یک موجود وارد کنیم، لازم است او معرفت تجربی نسبت به درد داشته باشد. اگر الگوریتم نتواند چیزی را حس کند، سخن گفتن از «ارزشها» برای او بیمعنی خواهد بود و در نتیجه نمی‌‌تواند کنشهایش را بر مبنای دلایل اخلاقی رقم بزند.
      زامبیها در فلسفه ذهن موجوداتی تعریف میشوند که از نظر فیزیکی، مولکول به مولکول شبیه ما هستند و وظایف و کارکردهای ما را نیز دارند و به نحوی تمایزناپذیر شبیه ما انسانها عمل میکنند. اما بر خلاف انسانها، دارای تجربه آگاهانه نیستند و احساساتی نظیر درد و رنج و خوشی را درک نمیکنند. اگر چنین موجوداتی بتوانند وجود داشته باشند، پس آگاهی و تجربیات آگاهانه، امری فراتر از بدن فیزیکی خواهد بود. اعمال آزمایش فکری زامبی روی عاملیت اخلاق به ما کمک میکند ارزیابی کنیم که آیا عاملیت اخلاقی امری مستقل از تجربه آگاهانه یا توانایی حسی است. در این یادداشت عمدتاً بر توانایی حسی[1] متمرکز میشویم، چرا که میتوان تجربه آگاهانه داشت، بدون اینکه درد یا لذت یا احساسات دیگر حس شود و همچنین، تجربیات حسی در عاملیت اخلاقی نقش مهمی دارند.
      در ادبیات حوزه اخلاق هوش مصنوعی، عمدتاً الگوریتمها دارای درجهای از عاملیت اخلاقی در نظر گرفته میشوند. همچنین، عمده نظریات راجع به عاملیت اخلاقی بر این باورند که عاملیت، متشکل از سطحی از خودمختاری یا مسئولیتپذیری یا هر دو است. میخواهیم استدلال کنیم که الگوریتمها و زامبیهای اخلاقی دارای نوعی از خودمختاری که سازنده عاملیت باشد، نیستند و همچنین به آنها نمیتوان مسئولیت نسبت داد، چرا که دارای توان حسی و درک اخلاقی لازم نیستند.

      زامبیهای اخلاقی
      زامبیهای اخلاقی مانند ما عمل میکنند، اما مثل ما حس نمیکنند؛ میتوانند به قوانین احترام بگذارند، کارهای خیریه کنند، یا قوانین را پایمال کنند، تحقیر و خیانت کنند و .... تصور کردن زامبیها امری ممکن است و این نشان میدهد که قدرت اثرگذاری اخلاقی در جهان امری مستقل از توانایی حسی است. اما آیا زامبیها را میتوان عاملهای اخلاقی در نظر گرفت؟ اگر پاسخ منفی باشد، نتیجه این است که توانایی حسی، شرطی لازم برای عاملیت اخلاقی است. الگوریتمها، روباتها و هوش مصنوعی مصادیق عینی زامبیهای اخلاقی در جهان ما هستند. این موجودات میتوانند در برخی از امور کارکردی مشابه انسانها از خود نشان دهند؛ مثلاً در استخدام افراد، اخراج، تعیین پاداش یا مجازات و .... بنابراین، استفاده از استعاره زامبی برای الگوریتمها و هوش مصنوعی میتواند به ما در درک بهتر هر دو طرف کمک کند.
      یکی از نقدهایی که ممکن است به این ایده وارد شود، این است که ما نمیتوانیم تضمین کنیم که الگوریتمها و ماشینها دارای توان حسی نیستند. درست است! اما، ما نمیتوانیم اثبات کنیم که سنگ هم دارای توان حسی نیست و همانطور که پنسایکیست[2]ها (یا همهجانانگاران) معتقدند، همه موجودات دارای درجهای از آگاهی هستند. از دیگر سو، دلیل کافی برای این ادعا نیز نداریم که الگوریتمها و سنگها دارای ذهن یا توان حسی هستند.
      ممکن است این استدلال نیز مطرح شود که اگر الگوریتمها شبیه ما رفتار کنند، ما هم باید شبیه انسان‌‌های دیگر با آنها رفتار کنیم. اما در حال حاضر، الگوریتمها صرفاً برخی از وظایف و کارکردهای ما را انجام میدهند و زامبیهای کاملی نیستند و تواناییهای حسی از خود بروز نمیدهند. ممکن است ماشینها در آینده بدنهایی شبیه ما داشته باشند و بسیار شبیه ما عمل کنند که در آن صورت لازم است احتیاط کنیم. این احتمال نیز وجود دارد که ما تنها موجوداتی با بدنهای بیولوژیک باشیم که دارای توان حسی هستند. یکی از دلایل توان حسی و فکری ما این است که ما وقتی هیجانزده میشویم، ضربان قلبمان بالا میرود، وقتی ناراحتیم فشار خونمان پایین میآید و وقتی میترسیم مو به تنمان سیخ میشود. بنابراین، بار استدلال روی دوش کسی است که از توان حسی الگوریتمها دفاع میکند.

      عاملیت اخلاقی و الگوریتمها
      در ادبیات رایج، استفاده از عبارت عاملیت اخلاقی برای سیستمهای خودکار، رایج است و در بسیاری موارد صرفاً جنبه لفظی دارد. حتی زمانی که میدانیم مصنوعات دارای ذهن نیستند، به آنها اراده و باور نسبت میدهیم. به باور اسپارو مثلاً اینکه سلاحی بتواند هدف خود را انتخاب کند، آن را تبدیل به سلاحی خودمختار میکند (Sparrow, 2007). اگرچه اسپارو به این سلاحها مسئولیت اخلاقی نسبت نمیدهد، اما لحن کلام او اینگونه القا میکند که گویی این سلاحها عاملیت اخلاقی دارند. و همانطور که نوئل شارکی (Sharkey 2012) توضیح میدهد، وقتی از عباراتی در مورد ماشین‌‌ها استفاده میکنیم که در شبکه مفهومی منسجمی از مفاهیم قرار دارد، دروازهای را میگشاییم برای آنکه بقیه مفاهیم همبستهای که صرفاً قابل اطلاق به انسانها هستند را نیز در مورد ماشین مجاز بدانیم.
      پرسش از عاملیت اخلاقی ماشینها پرسشی از سر کنجکاوی صرف نیست، بلکه دلالتهای عملی بسیاری در پاسخ آن نهفته است. چرا که اگر عاملیت اخلاقی را نتوان به آنها نسبت داد، مسئولیت اعمال آنها بر عهده انسانها خواهد بود و اگر آنها را عاملهای اخلاقی بدانیم، رفتارهای متفاوتی نسبت به آنها بروز خواهیم داد از جمله؛ شکایت کردن از آنها، زندانی کردن آنها و ....
      البته متخصصان مختلف معانی مختلفی برای عاملیت اخلاقی در ذهن دارند. اما یکی از مهمترین دستهبندیها برای عاملیت اخلاقی، دستهبندی جیمز مور (Moor, 2009) است. مور 4 نوع از عاملهای اخلاقی را از یکدیگر تفکیک میکند:
      1. عاملهای دارای اثر اخلاقی: عامل‌‌هایی که کنشهایشان دارای عواقب ناخواسته است. اکثر یا همه سیستم‌‌های خودمختار در این دسته جای میگیرند.
      2. عاملهای اخلاقی ضمنی: عاملهایی که ضمن طراحی آنها اخلاقیات را در نظر داشتهایم.
      3. عامل‌‌های اخلاقی صریح: عاملهایی که میتوانند از جایگاه اخلاق عمل کنند (نه صرفاً بر اساس اخلاق). مثلاً میتوانند مسائل اخلاقی را شناسایی و برای آنها پاسخهایی پیدا کنند.
      4. عاملهای اخلاقی کامل: این دسته قادرند همان کارهای دسته سوم را انجام دهند، اما علاوه بر آن، دارای آگاهی، اراده آزاد و قصدمندی نیز هستند.
      مدعای اصلی در این یادداشت این است که دسته سوم و چهارم مور یکی هستند. به این معنا که عاملی اخلاقی که بتواند مسائل اخلاقی را شناسایی و پاسخدهی کند، ضرورتاً دارای توان حسی است، تجربه آگاهانه دارد، میتواند لذت و رنج و همدلی را تجربه کند و در نتیجه، به دسته چهارم تعلق دارد. در مقابل این مدعا، ایده فلوریدی و سَندرز را داریم که معتقدند عامل‌‌های خودمختار مصنوعی نه تنها عاملیت اخلاقی دارند، بلکه دارای نوعی «اخلاقیات بیذهن[3]» هستند (Floridi & Sanders, 2004).
      چنانکه گفتیم، در ادبیات این موضوع، عمدتاً باور بر این است که مسئولیتپذیری اخلاقی یا خودمختاری یا هر دو اجزاء سازنده عاملیت اخلاقی هستند. برخی معتقدند که وقتی مسئولیتپذیری باشد، خودمختاری هم ضرورتاً وجود دارد یا بالعکس. اما عدهای دیگر این دو را از یکدیگر مستقل میپندارند. اما آنچه که برای ما مهم است این است که با هر بیان قابل پذیرشی از خودمختاری که به اخلاقیات مربوط میشود و با هر تعبیر قابل پذیرشی از مسئولیت اخلاقی، نه زامبیهای اخلاقی و نه الگوریتمها نمیتوانند عاملهای اخلاقی تلقی شوند.
      ادامه دارد ...

      برگرفته از:
      Véliz, C. Moral zombies: why algorithms are not moral agents. AI & Soc 36, 487–497 (2021)

      دکتر سعیده بابایی، پژوهشگر پسادکتری اخلاق هوش مصنوعی دانشگاه توبینگن
      گروه مطالعات اخلاقی



      [1] sentience
      [2] panpsychists
      [3] Mindless morality
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1997987629
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir