• عاملیت و مسئولیت در هوش مصنوعی (بخش اول)

      عاملیت و مسئولیت در هوش مصنوعی (بخش اول)

      عاملیت و مسئولیت در هوش مصنوعی (بخش اول)

      خودمختاری هوش مصنوعی در رسانه‌ها و عوام به گونه‌ای جا افتاده که تصور بر این است، آنچه که در کنترل انسانی نباشد، جای نگرانی و حتی ترس دارد. برخی از آینده‌پژوهان معتقدند هوش مصنوعی علاوه بر اینکه از کنترل طراحان، مهندسان و شرکت‌های سازنده خارج خواهد شد، تا حدی پیچیده و خودمختار می‌شود که جهان را تصاحب خواهد کرد.

      به گزارش پژوهشگاه فضای مجازی؛ بحث در خصوص خودمختاری[1] هوش مصنوعی، یکی از مباحث داغ جهان امروز است. عبارت خودمختاری معانی مختلفی دارد و همین تعدد معانی، باعث سوء ارتباط در رسانه‌ها و در میان عوام شده است. خودمختاری هوش مصنوعی در رسانه‌ها و عوام به گونه‌ای جا افتاده که تصور بر این است، آنچه که در کنترل انسانی نباشد، جای نگرانی و حتی ترس دارد. برخی از آینده‌پژوهان معتقدند هوش مصنوعی علاوه بر اینکه از کنترل طراحان، مهندسان و شرکت‌های سازنده خارج خواهد شد، تا حدی پیچیده و خودمختار می‌شود که جهان را تصاحب خواهد کرد. برای مثال بوستروم در ایده فراهوش[2] خود بیان می‌کند که هوش مصنوعی در آینده به نقطه‌ای می‌رسد که قادر است برای خود هدف تعیین کند و خود نیز مصنوعاتی را برای رسیدن به این اهداف خواهد ساخت. گویی نقطه عطف در تاریخ توسعه هوش مصنوعی زمانی است که هوش مصنوعی شروع می‌کند به شیوه خودش عمل کند؛ یعنی اعمالی را به شکل ارادی انجام دهد. ویژگی ارادی بودن کنش‌های یک عامل، از نگاه برخی از متخصصان هوش مصنوعی با دارا بودن ویژگی آگاهی[3] در موجودات هوشمند همبستگی دارد. به بیان دیگر، موجودی می‌تواند اعمال ارادی انجام دهد که دارای آگاهی باشد. در این گزارش ما عمدتاً بر دو مفهوم عاملیت[4] و مسئولیت[5] متمرکز می‌شویم. و مفهوم عاملیت را نه به معنای انتزاعی آن، بلکه از جهت رابطه‌ای که با مسئولیت اخلاقی و حقوقی برقرار می‌کند، مورد بررسی قرار می‌دهیم.

      برخی از متخصصان این حوزه به هوش مصنوعی همان عاملیتی را نسبت می‌دهند که به انسان‌ها نسبت داده می‌شود. سردرگمی‌ها و ابهاماتی که درباره چیستی و تعاریف عاملیت اخلاقی وجود دارد، باعث بدفهمی درباره آینده هوش مصنوعی شده است. در این گزارش مفهوم سه‌گانه‌ای از عاملیت معرفی می‌شود که شامل عاملیت علّی[6] مصنوع و عاملیت قصدمندانه[7] انسان‌ها است. برای درک بهتر این دو مفهوم از عاملیت، به موردکاوی یک خطای فناورانه در شرکت فولکس واگن می‌پردازیم و عاملیت انسانی و فناورانه را در این مثال از یکدیگر تفکیک می‌کنیم. در این مثال مشاهده می‌کنیم که یک نرم افزار نقش مهمی در بروز یک خطا داشته و در امکان‌پذیر شدن چنین خطایی عاملیت داشته است. سپس این موردکاوی را با این تصور که هوش مصنوعی به سمت خودمختاری بیشتر در آینده پیش می‌رود، بسط می‌دهیم و نکاتی را در باب عاملیت و مسئولیت هوش مصنوعی مطرح می‌کنیم.

      مفهوم عاملیت

      عاملیت در معنای سنتی کلمه معادل با توان کنشگری هستومند[8] است. به طور کلی دو نوع رفتار و کنش را می‌توان از یکدیگر متمایز کرد: 1) عمل قصدمندانه که برآمده از حالات ذهنی است و به طور سنتی منحصر به انسان است 2) عمل برآمده از روابط علّی مادی که هم انسان و هم مصنوع می‌توانند آن را دارا باشند. در عاملیت نوع اول، عامل می‌تواند پاسخ‌گو، وظیفه‌مند و شایسته ستایش و مجازات باشد. اما عاملی که دارای عاملیت نوع دوم باشد، چنین ویژگی‌هایی را ندارد. البته، برخی از متخصصان معتقدند که عاملیت ارادی را به ماشین نیز می‌توان نسبت داد و حتی ماشین به علت کارآمدی بالاتری که دارد، از این جهت می‌تواند مناقشه‌برانگیزتر باشد، چرا که می‌تواند مسئولیت را هم بپذیرد.

      به هر روی، چون امکان‌های مختلف برای توسعه هوش مصنوعی در آینده هنوز مورد توافق نیستند، ما همچنان درباره عاملیت هوش مصنوعی سردرگم هستیم و توافقی قطعی روی تعریف این مفهوم و نسبت دادن آن به هوش مصنوعی وجود ندارد. به نظر می‌رسد که هوش مصنوعی در حال حرکت از عاملیت نوع دوم به سمت عاملیت نوع اول است و این حرکت مسئله ساز بوده و باعث شده است آینده‌هایی غیر واقعی را برای هوش مصنوعی پیش بینی کنیم. آنچه که ما را در ردیابی و توزیع مسئولیت راهنمایی می‌کند، پیگیری خطاهای فناوری است. فهم بهتر از عاملیت نیز باعث می‌شود، دید شفاف‌تری نسبت به مفهوم مسئولیت پیدا کنیم. ما در این گزارش نوع سومی از عاملیت را معرفی می‌کنیم که دو عاملیت اول را در بر می‌گیرد و به ادعای دبورا جانسون[9] و ماریو وردی چیو[10] که این ایده را مطرح کرده‌اند، می‌تواند عملکرد هوش مصنوعی را در بافتار جهان واقعی توضیح دهد.

      انواع عاملیت

      یکی از تعابیری که برای عاملیت ارائه شده است، توانایی کنشگری است. در گذشته کنش را عملی ارادی و منحصر به انسان می‌دانستیم. اما امروزه بحث از هوش مصنوعی به عنوان یک عامل خودمختار نیز مطرح شده است، به گونه‌ای که عمل یک برنامه یا روبات را نوعی کنش در نظر می‌گیرند و در نتیجه آن را یک عامل تلقی می‌کنند. اما به باور برخی از اندیشمندن این حوزه نظیر دبورا جانسون، این عامل‌ها مصنوعی هستند، زیرا در قالب مدارهای الکترونیک از پیش طراحی‌شده عملکرد خود را انجام می‌دهند نه کنش‌های طبیعی انسانی.

      در ادامه، ابتدا دو نوع فهم از عاملیت را از یکدیگر تفکیک می‌کنیم. سپس، این دو فهم را در قالب مدلی تحت عنوان عاملیت سه­گانه ترکیب می­کنیم.

      فهم وسیع یا عاملیت علّی یا تأثیر علّی

      این نوع از عاملیت در همه جا وجود دارد. وقتی هستومند[11]ها وارد روابط علّی می‌شوند روی یکدیگر کنش انجام می‌دهند، با هم تعامل می‌کنند و تغییراتی را روی یکدیگر ایجاد می‌کنند. در نتیجه داشتن عاملیت روی مخاطبِ عمل در همه جا به نحو مستقیم و غیر مستقیم می‌تواند وجود داشته باشد. رویکرد‌هایی نظیر مطالعات علم و فناوری[12] و نظریه شبکه-عامل[13] چنین فهمی از عاملیت دارند. چنانکه برونو لاتور[14]، فیلسوف و جامعه‌شناس شهیر معتقد است برای فهمیدن اینکه موجودی عامل هست یا نه، پرسیدن دو سوال کافیست:

      1) آیا این موجود تغییری در روند کنش دیگر عاملان ایجاد می‌کند؟
      2) آیا آزمونی هست که یک فرد دیگر بتواند این تغییر را آشکار کند؟

      اگر پاسخ این دو پرسش مثبت باشد، این موجود چه انسان باشد و چه نا انسان، عاملیت دارد و عامل است.

      توجه به این نوع از عاملیت موجب می‌شود که تأثیرات فناوری بر شکل‌گیری و تغییر جهان را ببینیم و به رسمیت بشناسیم. فناوری بر نظام‌های اجتماعی، روابط میان نهادها و همچنین بر ارزش‌ها تأثیرگذار است. یک نمونه از این تأثیرات را در قالب یک موردکاوی در این گزارش بیان می‌کنیم. در سال ۲۰۱۵ آژانس حفاظت از محیط زیست (EPA)[15] در آمریکا، فهمید که موتورهای دیزلی شرکت فولکس واگن[16] دارای نقص ابزاری هستند و این شرکت برای آنکه بتواند از آزمون استاندارد EPA عبور کند، با استفاده از یک نرم‌افزار دستگاه شکست، سیستم کنترل انتشار موتور را به گونه‌ای تغییر می‌دهد که از طریق انجام تقلب انتشار موتور را کاهش دهد. این نرم‌افزار دارای تأثیر و عاملیت علّی است و به سناریوهایی که فاجعه‌های فناورانه را توصیف می‌کنند شبیه است همچنین موجب آسیب رساندن به بشر می‌شود. اگرچه این نرم افزار در ممکن شدن تقلب و بروز آسیب‌های زیست‌محیطی نقش دارد، کسی از مسئولیت آن در تقلب چیزی نمی‌گوید.

      فهم محدود یا عاملیت ارادی

      این نوع از عاملیت ناظر به کنش‌های ارادی است که توسط انسان انجام می‌شوند. به باور جانسون و وردی‌چیو اراده[17]، نوعی حالت ذهنی[18] است که هوش مصنوعی آن را دارا نیست. ممکن است عده‌ای از متخصصان علوم کامپیوتر به هوش مصنوعی اراده نسبت دهند، اما این می‌تواند یک معنای استعاری برای اراده باشد. برخی دیگر از متخصصان حوزه هوش مصنوعی نیز معتقدند زمانی در آینده هوش مصنوعی می‌تواند به اراده و قصدمندی دست یابد. اما این نیز هنوز یک گمان است.

      با فرض اینکه اراده هوش مصنوعی یک استعاره است، در مثال تقلب فولکس واگن هم از عاملیت علّی نرم‌افزار یا از عاملیت ارادی به معنای استعاری آن سخن می‌گوییم. هر دو عاملیت علّی و ارادی، دارای اثر علّی هستند ولی در عاملیت ارادی شروع زنجیره علّیت با اراده یک عامل است. اراده و کنش ارادی از طریق رابطه‌ای پیچیده به مسئولیت مرتبط می‌شوند. در مثال فولکس واگن بعد از انجام شدن تقلب، مدیر و مهندسان مسئول تقلب شناخته شدند. چراکه شروع یک عاملیت علّی با عاملیت ارادی است؛ یعنی با انسان‌ها، که در اینجا مهندسان و مدیران شرکت فولکس واگن هستند. مدیر ارشد این شرکت مدعی است که استفاده از دستگاه شکست به پیشنهاد مهندسان بود، زیرا مهندسان دریافتند که موتورهای دیزلی‌شان معیارهای استاندارد EPA را برآورده نمی‌کند. اما در هنگام توزیع مسئولیت این تقلب باید توجه کرد که این کنش ارادی مدیرها بوده که سطح مشخصی از عملکرد را برای خودروهای این شرکت تعریف کرده‌اند و هدف دستیابی به معیار EPA را نیز این مدیران درخواست کرده بودند و این عاملیت‌ها در تحقق یافتن تقلب دخیل بوده‌اند. این مدیران فولکس واگن بودند که اراده کردند اهداف مشخصی را تعیین کنند. همچنین فرهنگ شرکت، طبق اراده آن‌ها طوری شکل گرفته است که مهندس‌ها از عواقب شکست در این آزمون استاندارد واهمه داشته باشند و نتوانند به مدیران خود بگویند که این هدف برای موتورهای دیزلی شرکت قابل دستیابی نیست. بنابراین مسئولیت این دسته از خطاها علاوه بر دنباله علّی به اراده و قصدمندی عامل‌ها نیز وابسته است.

      مدل عاملیت سه‌گانه

      مقصود از عاملیت سه‌گانه در ادبیات جانسون و وردی‌چیو عاملیتی است که انسان به همراه فناوری بروز می‌دهد. در این مدل نقش فناوری و انسان را در شکل‌گیری وقایع توضیح می‌دهیم، اما به نقش طبیعت یا موضوعات دیگر نمی‌پردازیم. عاملیت علّی و ارادی هیچ یک به تنهایی نمی‌توانند کل یک داستان را فراچنگ بیاورند. مثلاً در مورد فولکس واگن، عاملیت علّی صرفاً اثر علّی دستگاه شکست را می‌بیند، ولی اراده مدیران ارشد و مهندسان را در نظر نمی‌گیرد. عاملیت ارادی نیز اراده و علّیت انسانی را می‌بیند و به سهم مصنوعاتی که انسان برای تحقق اراده‌اش از آن استفاده کرده توجهی نمی‌کند. در حالی که دستگاه شکست به مثابه یک فناوری در شکل دادن به اراده مهندسان و ممکن شدن تقلب نقش داشته است.

      در نتیجه ترکیب هر دو نوع از عاملیت به حل بهتر مسئله کمک می‌کند؛ اینکه چگونه اراده عاملان انسانی و تأثیر مصنوعات توانسته نتایجی مانند تقلب فولکس واگن را تولید کند. این دو عاملیت در قالب مفهوم عاملیت سه‌گانه (به این معنا که انسان با مصنوع کنشگری می‌کند تا به هدفی مشخص دست یابد) با یکدیگر ترکیب می‌شوند. در عاملیت سه‌گانه، سه مؤلفه را می‌توان از یکدیگر تفکیک کرد:

      یک) کاربری که می‌خواهد به هدفی مشخص برسد و وظیفه دستیابی به هدف را به طراح واگذار می‌کند. در مثال فولکس واگن مدیر شرکت با هدف رساندن ماشین به استاندارد EPA در جایگاه کاربر قرار می‌گیرد.

      دو) طراحی که یک مصنوع را برای رسیدن به این هدف مشخص می‌سازد. در مثال فولکس واگن مهندس شرکت با ساختن دستگاه شکست هدف مدیر را محقق می‌کند.

      سه) مصنوعی که اثر علّی لازم را برای رسیدن به هدف تولید می‌کند. در مثال پیشین دستگاه شکست به مثابه مصنوع عمل می‌کند.

      وجود همه این عامل‌ها برای تحقق تقلب در شرکت فولکس واگن ضروری بودند. در اینجا کاربر با اراده خود هدف را به طراح واگذار می‌کند و طراح با اراده خود، مصنوعی را می‌سازد.

      دستگاه شکستی که تقلب فولکس واگن را ممکن کرد، متشکل از کدهایی بود که توسط مهندسان آن نوشته شده بود. اما ممکن است در آینده مسئله اینقدر سرراست نباشد. فناوری‌ها روز به روز خودمختارتر می‌شوند و وظایف پیچیده‌تری به آنها واگذار می‌شود و این موضوع واگذاری مسئولیت را سخت‌تر می‌کند. انسان‌ها هر روز به اثر علّی فناوری برای انجام کارهای‌شان وابسته‌تر می‌شوند تا جایی که شاید انسان در آینده فقط وظیفه تعیین هدف را انجام دهد و ماشین خود شکل دستیابی به هدف را بنویسد و تعیین کند. مثلاً در آینده اگر شرایطی مشابه برای شرکت فولکس واگن پیش بیاید، مهندسان طراح با سیستم‌های هوش مصنوعی‌ای که می‌توانند نرم‌افزار طراحی کنند جایگزین شوند. به این طریق که این هدف را برای هوش مصنوعی تعیین کنند که در آزمون EPA موفق شود. در نهایت دریابند که هوش مصنوعی به شکل خودمختار تصمیم گرفته که با کنترل موتور و راهکاری مشابه استفاده از دستگاه شکست به این هدف دست یابد. حال اگر این تقلب کشف شود، عاملیت را چگونه درک کرده و مسئولیت را چگونه واگذار کنیم؟

      در بخش بعد مدلی که توسط جانسون و وردی‌چیو برای پاسخ به این سوال ارائه می‌شود را توضیح می‌دهیم.

      ادامه دارد ...

      دکتر سعیده بابایی (دکتری فلسفه علم و فناوری، پژوهشگاه علوم انسانی)
      تهیه‌ شده در گروه مطالعات اخلاقی پژوهشگاه فضای مجازی



      برگرفته از مقاله «هوش مصنوعی، عاملیت و مسئولیت: مورد تقلب فولکس واگن و فراتر از آن» نوشته دبورا جانسون و ماریو وردی‌چیو در سال 2019
      Johnson, D.G., Verdicchio, M. AI, agency and responsibility: the VW fraud case and beyond. AI & Society 34, 639–647 (2019).


      [1] autonomy
      [2] Super intelligence
      [3] consciousness
      [4] agency
      [5] responsibility
      [6] Causal agency
      [7] Intentional agency
      [8] the capability of an entity to act
      [9] Deborah G. Johnson
      [10] Mario verdicchio
      [11] entity
      [12] Science and Technology Studies
      [13] Actor-network theory
      [14] Bruno Latour
      [15] Environmental Protection Agency
      [16] Volkswagen
      [17] intention
      [18] Mental state
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1997987629
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir