فهم رابطه
ای
از مسئولیت موجب می
شود متخصصان و اپراتورهای هوش مصنوعی بدانند که در حال انجام چه کاری هستند و همچنین تمایل پیدا کنند که با مخاطبان عمل اخلاقی ارتباط برقرار کرده و برای کنش
های خود دلیل و تبیین ارائه کنند. همچنین، از عواقب ناخواسته و اهمیت اخلاقی فعالیت
های خود آگاهی بیشتری داشته باشند.
برای بررسی مسئله واگذاری مسئولیت به هوش مصنوعی، ابتدا به سراغ شروطی می
رویم که ارسطو برای آن ذکر می
کند؛ 1) شرط کنترل
[1] و 2) شرط معرفت
[2]. مشکلی که در نظریه ارسطو با آن مواجهیم این است که ارسطو تکنولوژی را صرفا یک ابزار می
داند و معتقد است فقط انسان می
تواند مسئولیت اخلاقی داشته باشد. این فرض
هنوز هم پرطرفدار است که حتی اگر عاملیت هوش مصنوعی بیشتر شود، باز هم این عامل انسانی است که همواره مسئولیت کارها را بر عهده دارد و می
تواند عامل اخلاقی باشد. به علاوه، ارسطو تنها روی عامل اخلاقی متمرکز می
شود و جنبه رابطه
ای مسئولیت و مخاطب عمل
[3] اخلاقی را مطالعه نمی
کند. در این گزارش به زاویه نگاه مخاطب عمل هوش مصنوعی و اهمیت توجه به کاربران و نیازهای آنها و شیوه
های مختلف رفع این نیازها می
پردازیم.
شرط کنترل
یعنی اثری را آزادانه و از روی اراده با عمل خود ایجاد
کنی و درجه کافی از کنترل را روی این عمل داشته باشی. چنین عملی داوطلبانه صورت می
گیرد و از میان گزینه
های دیگری که برای انجام دادن وجود دارد، انتخاب می
شود. نکته
ای که در رابطه با شرط کنترل وجود دارد، این است که تکنولوژی به دلیل اینکه در شکل دادن عمل انسان تأثیرگذار است و ابزار صرف نیست، تا حدی بر محدوده کنترل انسان تأثیر می
گذارد و آن را تعیّن می
بخشد. پس تکنولوژی در این رویکرد نه مسئول است و نه غیر مسئول؛ بلکه در مسئولیت انسانی دارای مدخلیت است. در اینجا برای روشن
تر شدن بحث به مرور چند سؤال می
پردازیم:
آیا انسانها همیشه میتوانند مسئولیت استفاده از هوش مصنوعی را بر عهده بگیرند؟
ممکن است انسان نتواند کنترل کافی را روی هوش مصنوعی داشته باشد و مسئله شکاف مسئولیت
[4] به وجود بیاید. برای مثال، ماشین
های یادگیرنده خودمختار
[5] یا خودروهای خودران هنگامی که در موقعیت تصادف یا موقعیت
های پرمخاطره و ناگهانی دیگر قرار می
گیرند، ممکن است به انسان فرصت کافی برای نشان دادن واکنش ندهند. در بسیاری از موارد مشابه دیگر که تکنولوژی عملکرد اتوماتیک نشان می
دهد، انسان نمی
تواند تصمیم نهایی را بگیرد. در چنین مواقعی مسئولیت با چه کسی است؟ آیا مجازیم که چنین ماشین
ها و موقعیت
هایی را بسازیم که جایی برای عاملیت انسانی باقی نمی
گذارند (مواردی مانند اتوپایلوت در پرواز یا واکنش خودمختار نرم
افزارهای طراحی
شده برای پاسخ به حملات سایبری)؟ آیا باید حد و مرزی را برای میزان اتوماسیون ماشین
های هوشمند تعیین کرد؟
کدام انسانها مسئول استفاده از هوش مصنوعی هستند؟
معمولاً برای انجام یک کار یا در ایجاد شدن یک اثر چند فرد درگیر هستند و یک فرد را نمی
توان مسئول کل فرایند دانست. به همین خاطر، واگذاری مسئولیت میان عاملان متعددِ درگیر در تولید خروجی، کاری دشوار خواهد بود. این مسئله را مسئله دست
های بسیار
[6] می
نامیم. یک پاسخ برای این مسئله، این است که مسئولیت را توزیع کنیم. اما در عمل چطور می
شود این کار را انجام داد؟ مرزها و محدوده
های مساهمت عامل
های مختلف و روابط آنها معمولاً مبهم است و نیاز به موشکافی
های دقیق دارد؛ به خصوص در مورد عواقب اخلاقی تکنولوژی
های نوظهوری نظیر هوش مصنوعی که امکان خودمختاری برای آنها متصور است و پیش از این تأملات اخلاقی کافی درباره چنین مواردی صورت نگرفته است.
زمان چه نقشی در واگذاری مسئولیت دارد؟
توزیع مسئولیت، علاوه بر ملاحظاتی که مطرح شد یک بعد زمانی هم دارد؛ اینکه چه کسی چه کاری را در
چه زمانی انجام داده است. زنجیره عاملان انسانی دخیل در توسعه هوش مصنوعی زنجیره
ای طولانی است. در فرایند تولید، انتخاب و پردازش داده
ها برای آموزش دادن سیستم
های هوشمند، عامل
های انسانی متعددی در زمان
ها و مکان
های مختلف درگیر هستند. همچنین، یک نرم
افزار هوش مصنوعی ممکن است برای اهداف مختلف و در زمان
های مختلف به
کار گرفته شود (برای مثال از یک سیستم هوشمند که برای تشخیص چهره طراحی شده، می
توان هم در پزشکی در هم در پایش و نظارت استفاده کرد). علاوه بر کاربرد و توسعه هوش مصنوعی، حفظ و نگهداری از آن هم امر مهمی است. اگر نگهداری از هوش مصنوعی مسئولانه نباشد، به این معنا که نتوان مسیر علّی عملکرد آن را ردیابی کرد، مسئولیت
ها را نیز نمی
توان به درستی توزیع کرد. پس واگذاری مسئولیت نیازمند این است که مسیر علّی عملکرد آن قابل ردیابی باشد.
مسئله چیزهای بسیار
در بررسی عواقب اخلاقی و اجتماعی تکنولوژی، علاوه بر مسئله دست
های بسیار، با مسئله چیزهای بسیار
[7] نیز مواجهیم. در فرایندهای مربوط به هوش مصنوعی و کارکردهایی که برای این تکنولوژی قابل تصور است، نرم
افزارها و تکنولوژی
های مختلفی ممکن است درگیر باشند. برای مثال ممکن است علت یک تصادف هوایی که در آن از سیستم
های هوشمند استفاده شده است، تعامل یک سنسور خراب با نرم
افزار باشد. چراکه نرم
افزار تاریخ علّی طولانی
ای را از تولید تا کاربرد از سر گذارنده و با چیزهای بسیاری در تعامل بوده است.
برای تعیین مسئولیت باید همه روابط ساختاری و زمانی را توأمان در نظر گرفت؛ روابط انسان
ها با یکدیگر و رابطه آنها با چیزها و روابط چیزها با یکدیگر، باید به طور مجزا مورد بررسی قرار گیرد. همیشه لزوماً هوش مصنوعی، علت بروز خطا و عواقب ناخواسته نیست. ممکن است جزء دیگری از سیستم تکنولوژیکی، منشأ خطا باشد. مرز میان تکنولوژی
های هوشمند با تکنولوژی
های دیگر نیز در بسیاری از موارد واضح نیست. بنابراین، لازم است که مشخص کنیم چه عناصر تکنیکی دیگری در سیستم وجود دارند، نحوه تعامل آنها چگونه است، چطور در مسئله مشارکت دارند، رابطه آنها با انسان
ها چگونه است. همچنین، باید مشخص شود که آیا کاربر نهایی در جریان است که در حال استفاده از تکنولوژی است که در آن هوش مصنوعی به خدمت گرفته شده است. ضمن اینکه کاربر باید بداند چه میزان در استفاده از این تکنولوژی آزادی دارد. این ملاحظه ما را به مسئله معرفت در مسئولیت می
رساند که در قسمت بعد درباره آن صحبت می
کنیم.
ادامه دارد ...
برگرفته از مقاله «هوش مصنوعی، واگذاری مسئولیت، و توجیهی رابطه
ای از تبیین
پذیری» نوشته مارک کوکلبرگ در سال 2020
Coeckelbergh, Mark., 2020. Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability,
Science and Engineering Ethics. 26: 2051-2068.
دکتر سعیده بابایی (پژوهشگر پسادکتری اخلاق هوش مصنوعی، دانشگاه توبینگن)
تهیهشده در: گروه مطالعات اخلاقی پژوهشگاه فضای مجازی