به زبان فلسفه تحلیلی مدرن شرط معرفت یعنی:
1) آگاهی از عمل
2) آگاهی از اهمیت اخلاقی عمل
3) آگاهی از عواقب عمل
4) آگاهی از بدیل
ها
البته در این خوانش از شرط معرفت، از یکی از نکات ارسطو غفلت شده؛ اینکه با چه ابزار و وسیله
ای کنش انجام می
شود. این به این معناست که ارسطو توجه کرده است که تکنولوژی
که برای انجام کنش مورد استفاده قرار می
گیرد، در چگونگی واگذاری مسئولیت مهم است.
افرادی که در فرایند توسعه و کاربرد هوش مصنوعی درگیر هستند، عموماً درباره این موضوعات معرفت دارند:
اما درباره این موارد کمتر می
دانند و معرفت دارند:
- عواقب نامطلوب و آثار غیرمستقیم و یا استفاده از تکنولوژی تولید شده توسط این افراد در سیاق دیگر
- اهمیت اخلاقی کاری که میکنند
سؤالی که در اینجا مطرح می
شود، این است که توسعه
دهنده تا چه اندازه
ای می
تواند به
طور بالقوه از کاربردهای بدیل محصولش و امکان سوءاستفاده از آن مطلع شود؟ چگونه می
توان کاربر و توسعه
دهنده را حمایت کرد تا به این آگاهی
ها برسند و بر محدودیت
های پیش
گفته غلبه کنند؟
نکته دیگری که هم ارسطو و هم فیلسوفان تحلیل از آن غافل بوده
اند، این است که در بحث درباره مسئولیت، مهم است که بپرسیم یک عمل «همراه چه کسی» انجام شده است. انجام یک عمل با هوش مصنوعی، یک عمل جمعی
[1] است و شامل
دست
های بسیار می
شود و این به نوبه خود توزیع مسئولیت را دشوار می
کند.
عدم شفافیت و عدم تبیین
پذیری هوش مصنوعی، موجب می
شود عامل
های انسانی درباره موارد زیر جهل داشته باشند:
- به قدر کافی درباره تکنولوژی خود نمیدانند
- وقتی بر اساس هوش مصنوعی تصمیم میگیرند نمیدانند که دقیقاً در حال انجام چه کاری هستند
- نمیدانند که این تصمیم چگونه گرفته میشود
مخاطبان عمل در مسئولیت (دیدگاهی رابطهای نسبت به مسئولیت)
یکی از لوازم مسئولانه بودن عمل این است که بتوان آن را برای دیگران توضیح داد و بتوان پاسخی برای پرسش
های کسانی که متأثر از این تصمیمات هستند، ارائه کرد. این ضرورت ما را متوجه ماهیت رابطه
ای مسئله تبیین
پذیری و مسئولیت می
کند. پس مسئولیت، یک مسئله رابطه
ای
[2] و گفتگومحور است. تبیین
پذیری
[3] به دو دلیل مهم است: 1) عامل مسئول برای عمل مسئولانه باید بداند که کاری که انجام می
دهد چیست 2) مخاطب عمل مسئولیت در رابطه و کسی که عملی در نسبت با او انجام می
شود و تحت تأثیر عمل عامل قرار می
گیرد (مستقیم و غیر مستقیم)، برای این عمل نیاز به دلیل دارد.
مخاطب عمل، نیازمند تبیین در این باره است که در تکنولوژی
که در حال استفاده از آن است،
از هوش مصنوعی بهره گرفته شده است. او همچنین باید بتواند بگوید که به چه نوع تبیینی نیاز دارد و محق است که بداند به چه روش
هایی ممکن است از هوش مصنوعی متأثر شود. این گفتگوی میان عامل و مخاطب عمل، از این جهت نیز مهم است که ما بدانیم به طور کلی تا چه حد نیاز به تبیین وجود دارد.
پس تبیین، یک مقوله اجتماعی و رابطه
ای است و متناسب با نوع نیاز مخاطب عمل می
تواند متفاوت باشد. این جنبه از تبیین
پذیری نشان می
دهد که شاید هوش مصنوعی نتواند چنین تبیین
هایی ارائه دهد، چون اجتماعی بودن را هنوز به قدر کافی نمی
فهمد. آنچه نیاز مخاطب عمل است باید از سوی عامل در اختیار او گذاشته شود (نه لزوماً توضیح تمام جزئیات). این هدف محقق می
شود اگر و فقط اگر:
1) انسان
ها به قدر کافی از فرصت
ها و حمایت
های تکنیکی بهره
مند باشند؛ و به بیان کوکلبرگ، این یعنی سیستم
ها شفافیت کافی برای قابل تبیین بودن را داشته باشند (نه لزوماً شفافیت کامل).
2) عاملان مسئول به قدر کافی مشتاق، توانمند و آموزش
دیده باشند که بفهمند مخاطبان عمل نیازمند چه تبیینی هستند.
بنابراین، برای داشتن عاملیت مسئولانه، عامل باید بتواند قدرت پاسخ
گویی درباره کنش
های خود و ارائه تبیینی از نحوه تصمیم
گیری خود را داشته باشد و برای انجام این کارها، او از مخاطبان عمل خود مستقل نیست و باید در ارتباط مستمر دوطرفه با آنها باشد. این معیارها باید در توسعه و آموزش هوش مصنوعی لحاظ شوند.
نکته بعد آن است که توجه به بعد رابطه
ای مسئولیت، باعث توجه به ویژگی جمعی بودن مسئولیت نیز می
شود. برای جمعی بودن مسئولیت دو معنا را می
توان متصور شد: 1) مسئولیت بین چند عامل توزیع
شود 2) یک عامل جمعی مانند یک جامعه یا سازمان مسئول یک کار باشد.
ممکن است سوگیری موجود در هوش مصنوعی به علت سوگیری نهادینه
شده در کل جامعه باشد، که در طول تاریخ از گذشته تا حال (بعد زمانی مسئولیت) در فرهنگ جوامع رخنه کرده و در نتیجه، مسئله سوگیری هوش مصنوعی یک مسئولیت فردی ساده نیست. برای مثال، اگر داده
های ورودی از متون اینترنتی اخذ شده باشند، دیگر عمل یک فرد نیست که موجب بروز سوگیری در خروجی هوش مصنوعی می
شود. در یک بستر اجتماعی، فرهنگی، تاریخی نمی
توان از مسئولیت مطلق حرف زد.
هوش مصنوعی ممکن است تنگناهایی ایجاد کند که قابل حل نباشند، اما این به این معنا نیست که نمی
توان و نباید به آن مسئولیت نسبت داد. وقتی یک تنگنای اخلاقی غیر قابل حل باشد، می
توانیم مسئله را با ذی
نفعان مختلف و در جامعه مطرح کنیم و به دنبال شیوه
های جدیدی برای حل این تنگنا باشیم. پس رابطه
ای دیدن مسئولیت، موجب می
شود تعامل، گفتگو، شفافیت و فهم (حتی فهم ابعاد فاجعه
بار تکنولوژی) هوش مصنوعی و عواقب این تکنولوژی برای ما مهم شود.
پایان
برگرفته از مقاله «هوش مصنوعی، واگذاری مسئولیت، و توجیهی رابطه
ای از تبیین
پذیری» نوشته مارک کوکلبرگ در سال 2020
Coeckelbergh, Mark., 2020. Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability,
Science and Engineering Ethics. 26: 2051-2068.
دکتر سعیده بابایی، پژوهشگر پسادکتری اخلاق هوش مصنوعی دانشگاه توبینگن
تهیهشده در: گروه مطالعات اخلاقی پژوهشگاه فضای مجازی