چنان که گفتیم، ادعای این متن این است که الگوریتمها خودمختار یا پاسخگو نیستند، زیرا توانایی حسی ندارند...
مسئولیت اخلاقی و عاملیت
عامل می
تواند به اکثر معانی
ای که طرح شد، خودمختار نباشد، اما همچنان مسئول است. حکمرانی و پاسخگویی به دلایل نیز از این جهت مهم
اند که به مسئولیت ربط پیدا می
کنند. درباره مفهوم مسئولیت بیش از مفهوم خودمختاری اجماع وجود دارد. برای مثال مکِنا[1] مسئولیت را پاسخگویی در برابر انجام عمل بر اساس اقتضائات اخلاق تعریف می
کند. پاسخگویی نیز نسبت نزدیکی با سرزنش
پذیری یا تحسین
پذیری دارد. الگوریتم
ها پاسخگویی ندارند. زیرا نمی
توانند به خاطر نحوه عملکرد خود به دیگران پاسخ دهند. آنها درکی از آسیبی که به دیگران زده
اند ندارند، نمی
توانیم آنها را تنبیه کنیم و بخواهیم عملشان را جبران کنند. عامل اخلاقی بودن ضرورتاً مسئول بودن را در پی دارد.
حس و عاملیت اخلاقی
چنان که گفتیم، ادعای این متن این است که الگوریتم
ها خودمختار یا پاسخگو نیستند، زیرا توانایی حسی ندارند. برای آنکه (بر اساس خودمختاری) «خوب» را درک کنیم و طبق آن عمل کنیم، باید بتوانیم درکی از لذت، معناداری و رضایت داشته باشیم. اگرچه، نیازی نیست که همه انواع درد را تجربه کرده باشیم (هرچند که این توان همدلی ما را افزایش می
دهد). توان حسی است که انگیزه برای عمل را فراهم می
کند. زامبی
ها بر اساس میل به آسیب زدن یا کسب منفعت عمل نمی
کنند، پس نمی
توانند مسئول اخلاقی باشند. برای ماشین که توان حسی ندارد، ارزش
ها بی
معنا هستند و نمی
توانند بر اساس دلایل اخلاقی عمل کند.
همانطور که هیوم[2] می
گوید، باورها به تنهایی برای انگیزه دادن به ما برای انجام عمل اخلاقی کافی نیستند. ما برای عمل کردن نیاز به حس، هیجان و شور داریم. شومیکر[3] نیز خاطر نشان می
کند، "احساساتی که داریم، ما را عاملی می
کند که هستیم" و معتقد است که بدون وجود انگیزه عاطفی، همه گزینه
ها به یک میزان شانس انتخاب دارند.
پاسخ به اعتراضهای احتمالی
اعتراض اول: مشابه بودن انسان و زامبی از نظر کارکردی[4]
کارکردگرایی در اخلاق به این معناست که عامل اخلاقی بودن یعنی شبیه یک عامل اخلاقی عمل کردن. طبق این دیدگاه، اگر "به نظر برسد" که یک موجود به دلایل اخلاقی پاسخ درست می
دهد، "میل" دارد آسیب
ها را کمینه کند و در برابر نقد و مجازات خود را اصلاح کند، می
توانیم او را عامل اخلاقی بخوانیم. اما همانطور که آزمایش فکری اتاق چینی سرل نشان می
دهد، در ماشین فهم معنا اتفاق نمی
افتد و در حوزه اخلاق نیز این ادعا صدق می
کند. دو دلیل را می
توان برای رد این اعتراض برشمرد:
- طبق دیدگاهی که مورد پذیرش گروهی از متخصصان این حوزه است، ما هیچگاه نمیتوانیم موجوداتی بسازیم که عملکرد کاملاً مشابهی با عاملهای انسانی داشته باشند. آزمایش فکری زامبی همیشه یک آزمایش فکری خواهد بود و در عمل ما هیچگاه موجودات زامبی نخواهیم داشت. چرا که اخلاق را نمیتوان کاملاً در قالب مجموعهای از رمزها در یک موجود، جایدهی کرد. اخلاق مجموعهای از قوانین نیست که بتواند به شکل دستورالعمل به موجودی که توانایی فهمیدن ندارد، دیکته شود. برای عمل اخلاقی نیاز به فهم و خرد داریم تا بتوانیم در موقعیتهای پیچیده و پیشبینینشده و همچنین، موقعیتهایی که برای اصول کلی اخلاق استثناء محسوب میشوند، به نحوی اخلاقی عمل کنیم.
- ممکن است ما اشتباهاً! مسئولیت خطاها را به الگوریتمها و ماشینها نسبت دهیم و این امر فضایی را فراهم کند برای اینکه افرادی که واقعاً مسئولند، از زیر بار مسئولیت شانه خالی کنند. تبعات چنین کاری میتواند بیپروایی عاملان انسانی در طراحی و کاربرد تکنولوژی باشد، در حالیکه تکنولوژیها را نمیتوان به نحوی واقعی تنبیه کرد.
اعتراض دوم: تمایز انگیزه و رانه[5]
گروهی از متخصصان معتقدند که الگوریتم شاید دارای ویژگی به نام رانه باشد که می
توان آن را معادل یا مشابه انگیزه در انسان تلقی کرد. هوش مصنوعی شاید می
تواند برای رسیدن به اهدافش به بهینه
ترین شکل ممکن، برای خود رانه
های ابتدایی بسازد که او را در مسیر رسیدن به هدف پیش می
رانند. این رانه
ها کمک می
کنند که هوش مصنوعی خود را ارتقاء دهد، از خود محافظت کند و منابع لازم را برای خود فراهم کند. اما مفهوم رانه می
تواند مفهومی فریب
دهنده باشد، چرا که با توسل به این مفهوم، در واقع سعی می
کنیم اهداف برنامه
نویسی
شده را معادل انگیزه
های روانشناختی/فیزیکی در انسان
ها جلوه دهیم. در حالی
که رانه برای هوش مصنوعی به این معنا نیست که او می
تواند تأمل عمیق
تری درباره معنای زندگی یا میزان ارزشمندی یا درست بودن کنش
های خود داشته باشد.
اعتراض سوم: امکان دستیابی به هوش عمومی
ممکن است عده
ای ادعا کنند که هوش مصنوعی هنوز به قدر کافی هوشمند نشده است تا بتواند عامل اخلاقی محسوب شود و این موضوع ارتباطی به توانایی حسی هوش مصنوعی ندارد. اگر الگوریتم
های پیچیده
تر و ماهرانه
تری بسازیم، می
توانیم آنها را در زمره عاملان اخلاقی وارد کنیم. اما موضعی که در یادداشت حاضر اتخاذ می
کنیم، این است که میان هوش با امیال و انگیزه
ها، تفاوت و تمایز صریحی وجود دارد و تقویت شدن و پیچیده
تر شدن هوش می
تواند کاملاً بی
ربط به ویژگی
هایی نظیر انگیزه و میل باشد و منجر به بروز این ویژگی
ها نشود. دلیل دوم -که دلیلی تجربی هم محسوب می
شود- برای رد این اعتراض، توجه به ویژگی
های افراد روان
آزار[6] است. این افراد در میزان هوشمندی عمومی تفاوتی با افراد عادی ندارند و حتی گاهی میانگین ضریب هوشی بالاتری از خود نشان می
دهند، اما همچنان درک اخلاقی آنها مخدوش است. اگرچه به درست و غلط اخلاقی آگاهی دارند و می
توانند راجع به استدلال
های اخلاقی صحبت کنند
، اما درکی از احساسات اخلاقی و عقاید اخلاقی ندارند و آن را تجربه نمی
کنند. آنها به خاطر اعمالشان احساس شرم را تجربه نمی
کنند، نمی
توانند همدلی و همدردی با قربانیان نشان دهند. به همین خاطر است که آنها نمی
توانند به دلایل اخلاقی پاسخ
های اخلاقی مقتضی را بدهند و در نتیجه، نمی
توانند عامل
های اخلاقی کامل در نظر گرفته شوند و مسئولیت اخلاقی بپذیرند.
البته باید توجه داشت که صحبت کردن از توان حسی[7] به مثابه یک شرط لازم، به این معنا نیست که این شرط، شرط کافی نیز خواهد بود. شرط لازم برای تجربه احساسات اخلاقی
[8] -از جمله توانایی همدلی، دلسوزی، پشیمانی و احساس گناه- داشتن توان حسی است. توان حسی بنیانی برای احساسات اخلاقی است. ممکن است علت اختلال
های احساسی روان
آزارها، وجود اختلال در توان حسی آنها باشد. به نظر می
رسد نوعی همبستگی میان بی
احترامی به دیگران از روی سنگدلی و عدم توانایی برای حس کردن درد وجود داشته باشد.
هرچه فرد روان
آزار، تحمل بیشتری نسبت به درد داشته باشد، تمایل او به سنگدلی بیشتر خواهد بود. بنابراین، عدم حساسیت نسبت به درد، می
تواند سازوکاری باشد که عدم حساسیت نسبت به رنج دیگران را توضیح می
دهد. وجود حدی از حساسیت نسبت به درد و لذت لازم است تا فرد بتواند احساسات اخلاقی و عاملیت اخلاقی را تجربه کند. در عین حال، ممکن است برای تجربه کردن احساسات اخلاقی، الزامات دیگری نیز وجود داشته باشد. به هر روی، برای عاملیت اخلاقی نیازمند داشتن توان حسی هستیم.
در پایان تذکر این نکته ضروری است که ممکن است در آینده هوش مصنوعی به گونه
ای پیچیده شود که بتواند ارزش
ها و امیال خود را داشته باشد. اما این توانایی
ها، ارتباطی به قدرت محاسباتی آن ندارند، بلکه از جنس توان حسی هستند که ممکن است نیازمند نوعی بدنمندی نیز باشند. وقتی الگوریتم
ها منجر به خسارت
های اخلاقی می
شوند، باید میان انسان
هایی که آنها را طراحی، برنامه
نویسی، اجرایی و کاربردی کرده
اند به دنبال مسئولان اخلاقی گشت
.
برگرفته از:
Véliz, C. Moral zombies: why algorithms are not moral agents.
AI & Soc 36, 487–497 (2021)
دکتر سعیده بابایی، پژوهشگر پسادکتری اخلاق هوش مصنوعی دانشگاه توبینگن
گروه مطالعات اخلاقی