• معرفت دومین شرط مسئولیت پذیری

      هوش مصنوعی و مسئله توزیع مسئولیت(بخش دوم)

      معرفت دومین شرط مسئولیت پذیری

      معرفت دومین شرط مسئولیت پذیری

      در قسمت اول بیان کردیم که از نگاه ارسطو، شرط اول مسئولیت پذیری کنترل و شرط دوم داشتن معرفت است. شرط اول در قسمت قبل شرح داده شد. در این قسمت به توضیح شرط معرفت و به عبارت دیگر شفافیت و تبیین پذیری میپردازیم.

      به زبان فلسفه تحلیلی مدرن شرط معرفت یعنی:
      1) آگاهی از عمل
      2) آگاهی از اهمیت اخلاقی عمل
      3) آگاهی از عواقب عمل
      4) آگاهی از بدیلها
      البته در این خوانش از شرط معرفت، از یکی از نکات ارسطو غفلت شده؛ اینکه با چه ابزار و وسیلهای کنش انجام میشود. این به این معناست که ارسطو توجه کرده است که تکنولوژی که برای انجام کنش مورد استفاده قرار میگیرد، در چگونگی واگذاری مسئولیت مهم است.
      افرادی که در فرایند توسعه و کاربرد هوش مصنوعی درگیر هستند، عموماً درباره این موضوعات معرفت دارند:
      • هدف
      • عواقب مطلوب
      اما درباره این موارد کمتر میدانند و معرفت دارند:
      • عواقب نامطلوب و آثار غیرمستقیم و یا استفاده از تکنولوژی تولید شده توسط این افراد در سیاق دیگر
      • اهمیت اخلاقی کاری که میکنند
      سؤالی که در اینجا مطرح میشود، این است که توسعهدهنده تا چه اندازهای میتواند بهطور بالقوه از کاربردهای بدیل محصولش و امکان سوءاستفاده از آن مطلع شود؟ چگونه میتوان کاربر و توسعهدهنده را حمایت کرد تا به این آگاهیها برسند و بر محدودیتهای پیشگفته غلبه کنند؟
      نکته دیگری که هم ارسطو و هم فیلسوفان تحلیل از آن غافل بودهاند، این است که در بحث درباره مسئولیت، مهم است که بپرسیم یک عمل «همراه چه کسی» انجام شده است. انجام یک عمل با هوش مصنوعی، یک عمل جمعی[1] است و شامل دستهای بسیار میشود و این به نوبه خود توزیع مسئولیت را دشوار میکند.
      عدم شفافیت و عدم تبیینپذیری هوش مصنوعی، موجب میشود عاملهای انسانی درباره موارد زیر جهل داشته باشند:
      • به قدر کافی درباره تکنولوژی خود نمیدانند
      • وقتی بر اساس هوش مصنوعی تصمیم میگیرند نمیدانند که دقیقاً در حال انجام چه کاری هستند
      • نمیدانند که این تصمیم چگونه گرفته میشود
      مخاطبان عمل در مسئولیت (دیدگاهی رابطهای نسبت به مسئولیت)
      یکی از لوازم مسئولانه بودن عمل این است که بتوان آن را برای دیگران توضیح داد و بتوان پاسخی برای پرسشهای کسانی که متأثر از این تصمیمات هستند، ارائه کرد. این ضرورت ما را متوجه ماهیت رابطهای مسئله تبیینپذیری و مسئولیت میکند. پس مسئولیت، یک مسئله رابطهای[2] و گفتگومحور است. تبیینپذیری[3] به دو دلیل مهم است: 1) عامل مسئول برای عمل مسئولانه باید بداند که کاری که انجام میدهد چیست 2) مخاطب عمل مسئولیت در رابطه و کسی که عملی در نسبت با او انجام میشود و تحت تأثیر عمل عامل قرار میگیرد (مستقیم و غیر مستقیم)، برای این عمل نیاز به دلیل دارد.
      مخاطب عمل، نیازمند تبیین در این باره است که در تکنولوژی که در حال استفاده از آن است، از هوش مصنوعی بهره گرفته شده است. او همچنین باید بتواند بگوید که به چه نوع تبیینی نیاز دارد و محق است که بداند به چه روشهایی ممکن است از هوش مصنوعی متأثر شود. این گفتگوی میان عامل و مخاطب عمل، از این جهت نیز مهم است که ما بدانیم به طور کلی تا چه حد نیاز به تبیین وجود دارد.
      پس تبیین، یک مقوله اجتماعی و رابطهای است و متناسب با نوع نیاز مخاطب عمل میتواند متفاوت باشد. این جنبه از تبیینپذیری نشان میدهد که شاید هوش مصنوعی نتواند چنین تبیینهایی ارائه دهد، چون اجتماعی بودن را هنوز به قدر کافی نمیفهمد. آنچه نیاز مخاطب عمل است باید از سوی عامل در اختیار او گذاشته شود (نه لزوماً توضیح تمام جزئیات). این هدف محقق میشود اگر و فقط اگر:
      1) انسانها به قدر کافی از فرصتها و حمایتهای تکنیکی بهرهمند باشند؛ و به بیان کوکلبرگ، این یعنی سیستمها شفافیت کافی برای قابل تبیین بودن را داشته باشند (نه لزوماً شفافیت کامل).
      2) عاملان مسئول به قدر کافی مشتاق، توانمند و آموزشدیده باشند که بفهمند مخاطبان عمل نیازمند چه تبیینی هستند.
      بنابراین، برای داشتن عاملیت مسئولانه، عامل باید بتواند قدرت پاسخگویی درباره کنشهای خود و ارائه تبیینی از نحوه تصمیمگیری خود را داشته باشد و برای انجام این کارها، او از مخاطبان عمل خود مستقل نیست و باید در ارتباط مستمر دوطرفه با آنها باشد. این معیارها باید در توسعه و آموزش هوش مصنوعی لحاظ شوند.
      نکته بعد آن است که توجه به بعد رابطهای مسئولیت، باعث توجه به ویژگی جمعی بودن مسئولیت نیز میشود. برای جمعی بودن مسئولیت دو معنا را میتوان متصور شد: 1) مسئولیت بین چند عامل توزیع شود 2) یک عامل جمعی مانند یک جامعه یا سازمان مسئول یک کار باشد.
      ممکن است سوگیری موجود در هوش مصنوعی به علت سوگیری نهادینهشده در کل جامعه باشد، که در طول تاریخ از گذشته تا حال (بعد زمانی مسئولیت) در فرهنگ جوامع رخنه کرده و در نتیجه، مسئله سوگیری هوش مصنوعی یک مسئولیت فردی ساده نیست. برای مثال، اگر دادههای ورودی از متون اینترنتی اخذ شده باشند، دیگر عمل یک فرد نیست که موجب بروز سوگیری در خروجی هوش مصنوعی میشود. در یک بستر اجتماعی، فرهنگی، تاریخی نمیتوان از مسئولیت مطلق حرف زد.
      هوش مصنوعی ممکن است تنگناهایی ایجاد کند که قابل حل نباشند، اما این به این معنا نیست که نمیتوان و نباید به آن مسئولیت نسبت داد. وقتی یک تنگنای اخلاقی غیر قابل حل باشد، میتوانیم مسئله را با ذینفعان مختلف و در جامعه مطرح کنیم و به دنبال شیوههای جدیدی برای حل این تنگنا باشیم. پس رابطهای دیدن مسئولیت، موجب میشود تعامل، گفتگو، شفافیت و فهم (حتی فهم ابعاد فاجعهبار تکنولوژی) هوش مصنوعی و عواقب این تکنولوژی برای ما مهم شود.
      پایان

      برگرفته از مقاله «هوش مصنوعی، واگذاری مسئولیت، و توجیهی رابطهای از تبیینپذیری» نوشته مارک کوکلبرگ در سال 2020
      Coeckelbergh, Mark., 2020. Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability, Science and Engineering Ethics. 26: 2051-2068.


      دکتر سعیده بابایی، پژوهشگر پسادکتری اخلاق هوش مصنوعی دانشگاه توبینگن
      تهیهشده در: گروه مطالعات اخلاقی پژوهشگاه فضای مجازی



      [1] Collective action
      [2] relational
      [3] explainability
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1997987629
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir