• قسمت سوم و پایانی: مسئولیت‌پذیری

      الگوریتم‌ها به مثابه زامبی‌های اخلاقی

      قسمت سوم و پایانی: مسئولیت‌پذیری

      قسمت سوم و پایانی: مسئولیت‌پذیری

      چنان که گفتیم، ادعای این متن این است که الگوریتم‌ها خودمختار یا پاسخگو نیستند، زیرا توانایی حسی ندارند...

      مسئولیت اخلاقی و عاملیت
      عامل میتواند به اکثر معانیای که طرح شد، خودمختار نباشد، اما همچنان مسئول است. حکمرانی و پاسخگویی به دلایل نیز از این جهت مهماند که به مسئولیت ربط پیدا میکنند. درباره مفهوم مسئولیت بیش از مفهوم خودمختاری اجماع وجود دارد. برای مثال مکِنا[1] مسئولیت را پاسخگویی در برابر انجام عمل بر اساس اقتضائات اخلاق تعریف می‌کند. پاسخگویی نیز نسبت نزدیکی با سرزنشپذیری یا تحسینپذیری دارد. الگوریتمها پاسخگویی ندارند. زیرا نمیتوانند به خاطر نحوه عملکرد خود به دیگران پاسخ دهند. آنها درکی از آسیبی که به دیگران زدهاند ندارند، نمیتوانیم آنها را تنبیه کنیم و بخواهیم عملشان را جبران کنند. عامل اخلاقی بودن ضرورتاً مسئول بودن را در پی دارد.

      حس و عاملیت اخلاقی

      چنان که گفتیم، ادعای این متن این است که الگوریتمها خودمختار یا پاسخگو نیستند، زیرا توانایی حسی ندارند. برای آنکه (بر اساس خودمختاری) «خوب» را درک کنیم و طبق آن عمل کنیم، باید بتوانیم درکی از لذت، معناداری و رضایت داشته باشیم. اگرچه، نیازی نیست که همه انواع درد را تجربه کرده باشیم (هرچند که این توان همدلی ما را افزایش میدهد). توان حسی است که انگیزه برای عمل را فراهم میکند. زامبیها بر اساس میل به آسیب زدن یا کسب منفعت عمل نمیکنند، پس نمیتوانند مسئول اخلاقی باشند. برای ماشین که توان حسی ندارد، ارزشها بیمعنا هستند و نمیتوانند بر اساس دلایل اخلاقی عمل کند.
      همانطور که هیوم[2] می‌گوید، باورها به تنهایی برای انگیزه دادن به ما برای انجام عمل اخلاقی کافی نیستند. ما برای عمل کردن نیاز به حس، هیجان و شور داریم. شومیکر[3] نیز خاطر نشان می‌کند، "احساساتی که داریم، ما را عاملی میکند که هستیم" و معتقد است که بدون وجود انگیزه عاطفی، همه گزینهها به یک میزان شانس انتخاب دارند.

      پاسخ به اعتراضهای احتمالی

      اعتراض اول: مشابه بودن انسان و زامبی از نظر کارکردی[4]
      کارکردگرایی در اخلاق به این معناست که عامل اخلاقی بودن یعنی شبیه یک عامل اخلاقی عمل کردن. طبق این دیدگاه، اگر "به نظر برسد" که یک موجود به دلایل اخلاقی پاسخ درست میدهد، "میل" دارد آسیبها را کمینه کند و در برابر نقد و مجازات خود را اصلاح کند، میتوانیم او را عامل اخلاقی بخوانیم. اما همانطور که آزمایش فکری اتاق چینی سرل نشان میدهد، در ماشین فهم معنا اتفاق نمیافتد و در حوزه اخلاق نیز این ادعا صدق میکند. دو دلیل را میتوان برای رد این اعتراض برشمرد:
      1. طبق دیدگاهی که مورد پذیرش گروهی از متخصصان این حوزه است، ما هیچگاه نمیتوانیم موجوداتی بسازیم که عملکرد کاملاً مشابهی با عاملهای انسانی داشته باشند. آزمایش فکری زامبی همیشه یک آزمایش فکری خواهد بود و در عمل ما هیچگاه موجودات زامبی نخواهیم داشت. چرا که اخلاق را نمیتوان کاملاً در قالب مجموعهای از رمزها در یک موجود، جایدهی کرد. اخلاق مجموعهای از قوانین نیست که بتواند به شکل دستورالعمل به موجودی که توانایی فهمیدن ندارد، دیکته شود. برای عمل اخلاقی نیاز به فهم و خرد داریم تا بتوانیم در موقعیتهای پیچیده و پیشبینینشده و همچنین، موقعیت‌‌هایی که برای اصول کلی اخلاق استثناء محسوب میشوند، به نحوی اخلاقی عمل کنیم.
      2. ممکن است ما اشتباهاً! مسئولیت خطاها را به الگوریتمها و ماشینها نسبت دهیم و این امر فضایی را فراهم کند برای اینکه افرادی که واقعاً مسئولند، از زیر بار مسئولیت شانه خالی کنند. تبعات چنین کاری میتواند بیپروایی عاملان انسانی در طراحی و کاربرد تکنولوژی باشد، در حالیکه تکنولوژیها را نمیتوان به نحوی واقعی تنبیه کرد.

      اعتراض دوم: تمایز انگیزه و رانه[5]
      گروهی از متخصصان معتقدند که الگوریتم شاید دارای ویژگی به نام رانه باشد که میتوان آن را معادل یا مشابه انگیزه در انسان تلقی کرد. هوش مصنوعی شاید میتواند برای رسیدن به اهدافش به بهینهترین شکل ممکن، برای خود رانههای ابتدایی بسازد که او را در مسیر رسیدن به هدف پیش میرانند. این رانهها کمک میکنند که هوش مصنوعی خود را ارتقاء دهد، از خود محافظت کند و منابع لازم را برای خود فراهم کند. اما مفهوم رانه میتواند مفهومی فریبدهنده باشد، چرا که با توسل به این مفهوم، در واقع سعی میکنیم اهداف برنامهنویسیشده را معادل انگیزههای روانشناختی/فیزیکی در انسانها جلوه دهیم. در حالیکه رانه برای هوش مصنوعی به این معنا نیست که او میتواند تأمل عمیقتری درباره معنای زندگی یا میزان ارزشمندی یا درست بودن کنشهای خود داشته باشد.

      اعتراض سوم: امکان دستیابی به هوش عمومی
      ممکن است عدهای ادعا کنند که هوش مصنوعی هنوز به قدر کافی هوشمند نشده است تا بتواند عامل اخلاقی محسوب شود و این موضوع ارتباطی به توانایی حسی هوش مصنوعی ندارد. اگر الگوریتمهای پیچیدهتر و ماهرانهتری بسازیم، میتوانیم آنها را در زمره عاملان اخلاقی وارد کنیم. اما موضعی که در یادداشت حاضر اتخاذ میکنیم، این است که میان هوش با امیال و انگیزهها، تفاوت و تمایز صریحی وجود دارد و تقویت شدن و پیچیدهتر شدن هوش میتواند کاملاً بیربط به ویژگیهایی نظیر انگیزه و میل باشد و منجر به بروز این ویژگیها نشود. دلیل دوم -که دلیلی تجربی هم محسوب میشود- برای رد این اعتراض، توجه به ویژگیهای افراد روانآزار[6] است. این افراد در میزان هوشمندی عمومی تفاوتی با افراد عادی ندارند و حتی گاهی میانگین ضریب هوشی بالاتری از خود نشان می‌دهند، اما همچنان درک اخلاقی آنها مخدوش است. اگرچه به درست و غلط اخلاقی آگاهی دارند و میتوانند راجع به استدلالهای اخلاقی صحبت کنند، اما درکی از احساسات اخلاقی و عقاید اخلاقی ندارند و آن را تجربه نمیکنند. آنها به خاطر اعمالشان احساس شرم را تجربه نمیکنند، نمیتوانند همدلی و همدردی با قربانیان نشان دهند. به همین خاطر است که آنها نمیتوانند به دلایل اخلاقی پاسخهای اخلاقی مقتضی را بدهند و در نتیجه، نمیتوانند عاملهای اخلاقی کامل در نظر گرفته شوند و مسئولیت اخلاقی بپذیرند.
      البته باید توجه داشت که صحبت کردن از توان حسی[7] به مثابه یک شرط لازم، به این معنا نیست که این شرط، شرط کافی نیز خواهد بود. شرط لازم برای تجربه احساسات اخلاقی[8] -از جمله توانایی همدلی، دلسوزی، پشیمانی و احساس گناه- داشتن توان حسی است. توان حسی بنیانی برای احساسات اخلاقی است. ممکن است علت اختلال‌های احساسی روانآزارها، وجود اختلال در توان حسی آنها باشد. به نظر میرسد نوعی همبستگی میان بیاحترامی به دیگران از روی سنگدلی و عدم توانایی برای حس کردن درد وجود داشته باشد.
      هرچه فرد روانآزار، تحمل بیشتری نسبت به درد داشته باشد، تمایل او به سنگدلی بیشتر خواهد بود. بنابراین، عدم حساسیت نسبت به درد، میتواند سازوکاری باشد که عدم حساسیت نسبت به رنج دیگران را توضیح می‌‌دهد. وجود حدی از حساسیت نسبت به درد و لذت لازم است تا فرد بتواند احساسات اخلاقی و عاملیت اخلاقی را تجربه کند. در عین حال، ممکن است برای تجربه کردن احساسات اخلاقی، الزامات دیگری نیز وجود داشته باشد. به هر روی، برای عاملیت اخلاقی نیازمند داشتن توان حسی هستیم.
      در پایان تذکر این نکته ضروری است که ممکن است در آینده هوش مصنوعی به گونهای پیچیده شود که بتواند ارزشها و امیال خود را داشته باشد. اما این تواناییها، ارتباطی به قدرت محاسباتی آن ندارند، بلکه از جنس توان حسی هستند که ممکن است نیازمند نوعی بدنمندی نیز باشند. وقتی الگوریتمها منجر به خسارت‌‌های اخلاقی میشوند، باید میان انسانهایی که آنها را طراحی، برنامهنویسی، اجرایی و کاربردی کردهاند به دنبال مسئولان اخلاقی گشت‌‌.

      برگرفته از:

      Véliz, C. Moral zombies: why algorithms are not moral agents. AI & Soc 36, 487–497 (2021)

      دکتر سعیده بابایی، پژوهشگر پسادکتری اخلاق هوش مصنوعی دانشگاه توبینگن
      گروه مطالعات اخلاقی



      [1] McKenna
      [2] Hume
      [3] Shoemaker
      [4] functional
      [5] drive
      [6] psychopath
      [7] sentience
      [8] Moral emotions
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1997987629
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir