مقدمه
در فلسفه ذهن، زامبی
ها موجوداتی هستند که شکل فیزیکی یکسانی با موجودات آگاه دارند، اما دارای تجربه اول شخص نیستند. از زامبی
ها برای رد دیدگاه فیزیکالیسم (دیدگاهی که می
گوید جهان از مؤلفه
های فیزیکی ساخته شده است) استفاده می
شود. ما می
کوشیم که از ایده آزمایش فکری زامبی
ها در حوزه اخلاق استفاده کنیم و بررسی کنیم که آیا عاملیت اخلاقی امری مستقل از توانایی حسی و تجربه آگاهانه است یا خیر. در این یادداشت ادعا می
کنیم که الگوریتم
ها نوعی زامبی اخلاقی وظیفه
مند هستند و با این تعریف، می
توان فهم بهتری از آنها پیدا کرد. دلیل اصلی برای اینکه نمی
توان الگوریتم
ها را خودمختار و پاسخگو در نظر گرفت نیز همین عدم توانایی حسی آنهاست. الگوریتم
ها و زامبی
های اخلاقی دارای فهم اخلاقی لازم برای پذیرفتن مسئولیت اخلاقی نیستند. برای آنکه درد را به یک موجود وارد کنیم، لازم است او معرفت تجربی نسبت به درد داشته باشد. اگر الگوریتم نتواند چیزی را حس کند، سخن گفتن از «ارزش
ها» برای او بی
معنی خواهد بود و در نتیجه نمی
تواند کنش
هایش را بر مبنای دلایل اخلاقی رقم بزند.
زامبی
ها در فلسفه ذهن موجوداتی تعریف می
شوند که از نظر فیزیکی، مولکول به مولکول شبیه ما هستند و وظایف و کارکردهای ما را نیز دارند و به نحوی تمایزناپذیر شبیه ما انسان
ها عمل می
کنند. اما بر خلاف انسان
ها، دارای تجربه آگاهانه نیستند و احساساتی نظیر درد و رنج و خوشی را درک نمی
کنند. اگر چنین موجوداتی بتوانند وجود داشته باشند، پس آگاهی و تجربیات آگاهانه، امری فراتر از بدن فیزیکی خواهد بود. اعمال آزمایش فکری زامبی روی عاملیت اخلاق به ما کمک می
کند ارزیابی کنیم که آیا عاملیت اخلاقی امری مستقل از تجربه آگاهانه یا توانایی حسی است. در این یادداشت عمدتاً بر توانایی حسی
[1] متمرکز می
شویم، چرا که می
توان تجربه آگاهانه داشت، بدون اینکه درد یا لذت یا احساسات دیگر حس شود و همچنین، تجربیات حسی در عاملیت اخلاقی نقش مهمی دارند.
در ادبیات حوزه اخلاق هوش مصنوعی، عمدتاً الگوریتم
ها دارای درجه
ای از عاملیت اخلاقی در نظر گرفته می
شوند. همچنین، عمده نظریات راجع به عاملیت اخلاقی بر این باورند که عاملیت، متشکل از سطحی از خودمختاری یا مسئولیت
پذیری یا هر دو است. می
خواهیم استدلال کنیم که الگوریتم
ها و زامبی
های اخلاقی دارای نوعی از خودمختاری که سازنده عاملیت باشد، نیستند و همچنین به آنها نمی
توان مسئولیت نسبت داد، چرا که دارای توان حسی و درک اخلاقی لازم نیستند.
زامبیهای اخلاقی
زامبی
های اخلاقی مانند ما عمل می
کنند، اما مثل ما حس نمی
کنند؛ می
توانند به قوانین احترام بگذارند، کارهای خیریه کنند، یا قوانین را پایمال کنند، تحقیر و خیانت کنند و .... تصور کردن زامبی
ها امری ممکن است و این نشان می
دهد که قدرت اثرگذاری اخلاقی در جهان امری مستقل از توانایی حسی است. اما آیا زامبی
ها را می
توان عامل
های اخلاقی در نظر گرفت؟ اگر پاسخ منفی باشد، نتیجه این است که توانایی حسی، شرطی لازم برای عاملیت اخلاقی است. الگوریتم
ها، روبات
ها و هوش مصنوعی مصادیق عینی زامبی
های اخلاقی در جهان ما هستند. این موجودات می
توانند در برخی از امور کارکردی مشابه انسان
ها از خود نشان دهند؛ مثلاً در استخدام افراد، اخراج، تعیین پاداش یا مجازات و .... بنابراین، استفاده از استعاره زامبی برای الگوریتم
ها و هوش مصنوعی می
تواند به ما در درک بهتر هر دو طرف کمک کند.
یکی از نقدهایی که ممکن است به این ایده وارد شود، این است که ما نمی
توانیم تضمین کنیم که الگوریتم
ها و ماشین
ها دارای توان حسی نیستند. درست است! اما، ما نمی
توانیم اثبات کنیم که سنگ هم دارای توان حسی نیست و همانطور که پنسایکیست
[2]ها (یا همه
جان
انگاران) معتقدند، همه موجودات دارای درجه
ای از آگاهی هستند. از دیگر سو، دلیل کافی برای این ادعا نیز نداریم که الگوریتم
ها و سنگ
ها دارای ذهن یا توان حسی هستند.
ممکن است این استدلال نیز مطرح شود که اگر الگوریتم
ها شبیه ما رفتار کنند، ما هم باید شبیه انسان
های دیگر با آنها رفتار کنیم. اما در حال حاضر، الگوریتم
ها صرفاً برخی از وظایف و کارکردهای ما را انجام می
دهند و زامبی
های کاملی نیستند و توانایی
های حسی از خود بروز نمی
دهند. ممکن است ماشین
ها در آینده بدن
هایی شبیه ما داشته باشند و بسیار شبیه ما عمل کنند که در آن صورت لازم است احتیاط کنیم. این احتمال نیز وجود دارد که ما تنها موجوداتی با بدن
های بیولوژیک باشیم که دارای توان حسی هستند. یکی از دلایل توان حسی و فکری ما این است که ما وقتی هیجان
زده می
شویم، ضربان قلبمان بالا می
رود، وقتی ناراحتیم فشار خونمان پایین می
آید و وقتی می
ترسیم مو به تنمان سیخ می
شود. بنابراین، بار استدلال روی دوش کسی است که از توان حسی الگوریتم
ها دفاع می
کند.
عاملیت اخلاقی و الگوریتمها
در ادبیات رایج، استفاده از عبارت عاملیت اخلاقی برای سیستم
های خودکار، رایج است و در بسیاری موارد صرفاً جنبه لفظی دارد. حتی زمانی که می
دانیم مصنوعات دارای ذهن نیستند، به آنها اراده و باور نسبت می
دهیم. به باور اسپارو مثلاً اینکه سلاحی بتواند هدف خود را انتخاب کند، آن را تبدیل به سلاحی خودمختار می
کند (
Sparrow, 2007). اگرچه اسپارو به این سلاح
ها مسئولیت اخلاقی نسبت نمی
دهد، اما لحن کلام او اینگونه القا می
کند که گویی این سلاح
ها عاملیت اخلاقی دارند. و همانطور که نوئل شارکی (
Sharkey 2012) توضیح می
دهد، وقتی از عباراتی در مورد ماشین
ها استفاده می
کنیم که در شبکه مفهومی منسجمی از مفاهیم قرار دارد، دروازه
ای را می
گشاییم برای آنکه بقیه مفاهیم همبسته
ای که صرفاً قابل اطلاق به انسان
ها هستند را نیز در مورد ماشین مجاز بدانیم.
پرسش از عاملیت اخلاقی ماشین
ها پرسشی از سر کنجکاوی صرف نیست، بلکه دلالت
های عملی بسیاری در پاسخ آن نهفته است. چرا که اگر عاملیت اخلاقی را نتوان به آنها نسبت داد، مسئولیت اعمال آنها بر عهده انسان
ها خواهد بود و اگر آنها را عامل
های اخلاقی بدانیم، رفتارهای متفاوتی نسبت به آنها بروز خواهیم داد از جمله؛ شکایت کردن از آنها، زندانی کردن آنها و ....
البته متخصصان مختلف معانی مختلفی برای عاملیت اخلاقی در ذهن دارند. اما یکی از مهمترین دسته
بندی
ها برای عاملیت اخلاقی، دسته
بندی جیمز مور (
Moor, 2009) است. مور 4 نوع از عامل
های اخلاقی را از یکدیگر تفکیک می
کند:
- عاملهای دارای اثر اخلاقی: عاملهایی که کنشهایشان دارای عواقب ناخواسته است. اکثر یا همه سیستمهای خودمختار در این دسته جای میگیرند.
- عاملهای اخلاقی ضمنی: عاملهایی که ضمن طراحی آنها اخلاقیات را در نظر داشتهایم.
- عاملهای اخلاقی صریح: عاملهایی که میتوانند از جایگاه اخلاق عمل کنند (نه صرفاً بر اساس اخلاق). مثلاً میتوانند مسائل اخلاقی را شناسایی و برای آنها پاسخهایی پیدا کنند.
- عاملهای اخلاقی کامل: این دسته قادرند همان کارهای دسته سوم را انجام دهند، اما علاوه بر آن، دارای آگاهی، اراده آزاد و قصدمندی نیز هستند.
مدعای اصلی در این یادداشت این است که دسته سوم و چهارم مور یکی هستند. به این معنا که عاملی اخلاقی که بتواند مسائل اخلاقی را شناسایی و پاسخ
دهی کند، ضرورتاً دارای توان حسی است، تجربه آگاهانه دارد، می
تواند لذت و رنج و همدلی را تجربه کند و در نتیجه، به دسته چهارم تعلق دارد. در مقابل این مدعا، ایده فلوریدی و سَندرز را داریم که معتقدند عامل
های خودمختار مصنوعی نه تنها عاملیت اخلاقی دارند، بلکه دارای نوعی «اخلاقیات بی
ذهن
[3]» هستند (
Floridi & Sanders, 2004).
چنانکه گفتیم، در ادبیات این موضوع، عمدتاً باور بر این است که مسئولیت
پذیری اخلاقی یا خودمختاری یا هر دو اجزاء سازنده عاملیت اخلاقی هستند. برخی معتقدند که وقتی مسئولیت
پذیری باشد، خودمختاری هم ضرورتاً وجود دارد یا بالعکس. اما عده
ای دیگر این دو را از یکدیگر مستقل می
پندارند. اما آنچه که برای ما مهم است این است که با هر بیان قابل پذیرشی از خودمختاری که به اخلاقیات مربوط می
شود و با هر تعبیر قابل پذیرشی از مسئولیت اخلاقی، نه زامبی
های اخلاقی و نه الگوریتم
ها نمی
توانند عامل
های اخلاقی تلقی شوند.
ادامه دارد ...
برگرفته از:
Véliz, C. Moral zombies: why algorithms are not moral agents.
AI & Soc 36, 487–497 (2021)
دکتر سعیده بابایی، پژوهشگر پسادکتری اخلاق هوش مصنوعی دانشگاه توبینگن
گروه مطالعات اخلاقی