• عاملیت و مسئولیت در هوش مصنوعی (بخش دوم و پایانی)

      عاملیت و مسئولیت در هوش مصنوعی (بخش دوم و پایانی)

      عاملیت و مسئولیت در هوش مصنوعی (بخش دوم و پایانی)

      به باور اندیشمندانی که مخالف مسئولیت‌پذیری هوش مصنوعی هستند، واگذاری مسئولیت به هوش مصنوعی نه معنایی دارد و نه فایده‌ای. در شرایطی که هوش مصنوعی به حد کافی از خودمختاری رسیده باشد و در جایگاه طراح قرار گرفته و هدف را دریافت می‌کند، مدیر ارشد هنوز در جایگاه کاربری است که تعیین هدف می‌کند.

      در بخش قبل در مورد مفهوم و انواع عاملیت سخن گفتیم. در این بخش در مورد عاملیت سه‌گانه در هوش مصنوعی خودمختار آینده صحبت می‌کنیم.

      به باور اندیشمندانی که مخالف مسئولیت‌پذیری هوش مصنوعی هستند، واگذاری مسئولیت به هوش مصنوعی نه معنایی دارد و نه فایده‌ای. در شرایطی که هوش مصنوعی به حد کافی از خودمختاری رسیده باشد و در جایگاه طراح قرار گرفته و هدف را دریافت می‌کند، مدیر ارشد هنوز در جایگاه کاربری است که تعیین هدف می‌کند. بنابراین:

      1. مصنوع: دستگاه شکستی که در تولید تقلب دارای عاملیت علّی است، اما از خود اراده‌ای ندارد. مصنوع صرفاً بخشی از عاملیت سه‌گانه را بر عهده دارد.

      2. طراح: سیستم هوش مصنوعی که دستورالعمل ساخت دستگاه شکست و اثر علّی آن در تقلب را تولید کرده است. اما آیا هوش مصنوعی این دستورالعمل‌ها را ارادی تولید کرده است؟ جانسون و وردی‌چیو معتقدند که هوش مصنوعی به معنایی که مهندسان در حال حاضر اراده دارند، این فعالیت‌ها را به نحو ارادی انجام نداده است. باز هم این مهندسان هستند که انسان‌هایی دارای اراده‌اند، چراکه هوش مصنوعی آینده نیز یک نرم‌افزار است که همچنان نمی‌توان مسئولیتی را به آن واگذار کرد.

      در عین حال، شماری معتقدند که هوش مصنوعی در آینده به قدری پیشرفته می‌شود که کنش‌گری آن را عاملیت ارادی بدانیم. اما در این گزارش ادعا بر این است که چون هنوز هوش مصنوعی متشکل از نرم‌افزاری است که روی کامپیوتر عمل می‌کند، هنوز در حوزه عاملیت علّی قرار دارد. برای آنکه هوش مصنوعی آینده بتواند مانند انسان دارای اراده باشد، باید گام بزرگی برای رفع شکاف هستی‌شناختی میان مطالعات محاسباتی و هوش مصنوعی تولید‌شده از آن و موجودات دارای احساس و حالت ذهنی برداشته شود.

      هوش مصنوعی پیشرفته همچنان دارای عاملیت علّی است؛ نه قصد سوئی دارد و نه در اثر بی‌توجهی منجر به بروز خطا می‌شود. هر دوی این ویژگی‌ها ارادی‌اند و هوش مصنوعی برای داشتن این ویژگی‌ها باید بر شکاف هستی‌شناختی پیش‌گفته غلبه کند. بنابراین همچنان اراده کسی که استفاده از هوش مصنوعی را توجیه، طراحی و مجاز کرده است مهم است و مسئولیتی بر عهده هوش مصنوعی نیست. البته هوش مصنوعی بخشی از عاملیت تقلب را دارد.

      3. کاربر: مدیر ارشد در این مثال هم کاربر خواهد بود و با دستگاه شکست به هدف موفقیت در آزمون می‌رسد. اوست که هدف خود را به هوش مصنوعی واگذار می‌کند. مدیر دارای اراده است و عاملیت ارادی دارد.

      اما آیا مدیر ارشد چون به طور کامل به هوش مصنوعی تکیه می‌کند کل مسئولیت را بر عهده دارد؟ برای پاسخ به این سوال رابطه میان مدیر و هوش مصنوعی باید بیشتر بررسی شود. برای مثال باید بپرسیم هنگامی که مدیر هدف را به هوش مصنوعی واگذار می‌کرد به چه مواردی فکر می‌کرد؟ جواب این سوال ما را متوجه هستومندهای جدید و صورت‌بندی کردن سه‌گانه جدیدی می‌کند. در ساختن هوش مصنوعی‌ای که قرار است در مقام طراح قرار بگیرد، طراحان این هوش مصنوعی پیشرفته، سه‌گانه جدیدی خلق می‌کنند. یعنی مدیران گروهی از مهندسان نرم‌افزار را برای ساخت هوش مصنوعی استخدام می‌کنند و سه‌گانه دیگری با هدف ساخت هوش مصنوعی‌ای که بتواند مسئله EPA را حل کند شکل می‌گیرد:
      1. کاربر همان مدیر است.
      2. طراح همان مهندس نرم افزار انسانی است.
      3. مصنوعات، ابزارهای سخت‌افزاری و نرم افزاری هستند که تولید هوش مصنوعی را تسهیل می‌کنند.
      در این سه‌گانه نیز مسئولیت بر عهده مدیر و طراحان انسانی است. در تخلف حقوقی فولکس واگن باید دید هر کدام از این عامل‌ها چگونه درباره راه حل غیرقانونی مسئله فکر کرده‌اند، هرکدام چه قصد سوء یا چه بی‌توجهی‌ای داشته‌اند؟ پس در مورد هوش مصنوعی پیشرفته در آینده نیز باید رفتار مولفه‌های انسانی در سه گانه‌های مختلف بررسی شود.

      مسئولیت، سازوکاری است برای انگیزه دادن به افراد برای اینکه به نحوه خاصی عمل کنند. وقتی افراد باور داشته باشند که مسئول‌اند با احتمال بیشتری مسئولانه رفتار می‌کند. در خطاهای فناورانه مسئولیت باید بر عهده کسانی باشد که توانایی تضمین احتمال رخ ندادن وقایع بد را داشته باشند. بنابراین، عاملیت و مسئولیت دو مفهوم متمایز از یکدیگرند. عاملیت سه‌گانه است و نوعی از آن را می‌توان به فناوری نسبت داد. ولی مسئولیت فقط مختص انسان‌هاست.

      سه‌گانه‌ای بدون انسان‌ها

      در این بخش باز هم به این سوال برمی‌گردیم که آیا ناانسان‌ها هم می‌توانند عاملیت ارادی داشته باشند؟ در چنین مواردی مسئولیت چگونه واگذار می‌شود؟ بیایید مثال فراهوش بوستروم را در نظر بگیریم. هوش مصنوعی‌ای که می‌تواند خودش هدف را تعیین کند و راه‌حل‌هایی را طراحی کند برای این که به این هدف دست یابد. فراهوشی که امیال شبه انسانی دارد و می‌تواند جهان را تسخیر کند. در اینجا هوش مصنوعی هر سه سطح عاملیت سه‌گانه را اشغال می‌کند.

      برخی معتقدند هوش ‌مصنوعی محاسباتی تا جایی پیش می‌رود که بتواند عاملیت ارادی داشته باشد؛ با همه پیچیدگی‌های روانی انسانی از جمله انگیزه، علاقه، هدف، اراده و قصدمندی. به نظر می‌رسد این‌جا هم در دام معنای استعاری از عاملیت ارادی افتاده‌ایم. هوش مصنوعی یک موجود محاسباتی است که دارای اراده و قصدمندی نیست و میان این دو تفاوتی هستی‌شناختی وجود دارد. فعالیت­ها و توانمندی­هایی که از جنس محاسباتی است و می­توان آنها را به کمک عملیات محاسباتی شبیه­سازی کرد، تفاوتی هستی‌شناختی با حالات ذهنی دارد. البته نمی‌توان با قاطعیت ادعا کرد که محاسبه‌گرایی (باور به اینکه همه توانمندی­های ذهنی را می­توان بر اساس فرایندهای محاسباتی تبیین کرد) لزوماً منجر به حالات ذهنی نمی‌شود، اما خلاف این ادعا ، به این معنا که رویکرد محاسباتی لزوماً منجر به هوش مصنوعی دارای اراده خواهد شد نیز قابل اثبات نیست.

      با هر سرانجامی که برای آینده هوش مصنوعی متصور باشیم (چه عاملیت ارادی داشته باشد و چه نداشته باشد) مسئولیت باید به زنجیره انسان‌هایی واگذار شود که اراده آنها منجر به این سرانجام شده است. هر قدر هوش مصنوعی پیشرفت کند، فاصله تصمیم‌گیری انسانی با عملکرد هوش مصنوعی بیشتر می‌شود. اما مدل سه‌گانه به ما کمک می‌کند تا عاملیت‌ها و مسئولیت‌ها را در فرآیندهای مختلف ردیابی کنیم.

      نتیجه‌گیری

      در این گزارش به دنبال فهمی از عاملیت بودیم که ترکیب سهم‌های کاربر، طراح و مصنوعات فناورانه را به رسمیت بشناسد. اصولاً وقتی صحبت از مسئولیت می‌شود، بحث از عاملیت نیز مهم می‌شود. ولی باید توجه داشت که این دو مفهوم متمایزند. مدل معرفی‌شده در این گزارش به ما این امکان را می‌دهد که بتوانیم عامل‌های کلیدی سهیم در فرایندهای مختلف را شناسایی کنیم، بدون اینکه در دام این نگاه بیفتیم که به دلیل پیچیدگی فرایندها و تعدد عامل‌ها نمی‌توانیم به هیچ انسانی مسئولیتی واگذار کنیم. این مدل می‌تواند هم برای فناوری‌های حال حاضر و هم برای فناوری‌های پیچیده‌تر و خودمختارتر آینده مورد استفاده قرار بگیرد. اگرچه ممکن است در فناوری‌های هوشمند آینده فاصله بین اراده انسانی و عملکرد هوش مصنوعی زیاد شود، رویکرد سه‌گانه به ما این امکان را می‌دهد که بتوانیم مسئولیت انسانی را ردیابی کنیم. البته وقتی فاصله تصمیم انسانی و تصمیم هوش مصنوعی زیاد می‌شود، در مواردی که خطای هوش مصنوعی ناشی از بی‌توجهی باشد به سختی می‌توان مسئولیت را توزیع کرد؛ خصوصاً در مواردی که تعیین هدف نیز به هوش مصنوعی واگذار می‌شود بدون اینکه مرزهای کافی برای رفتار هوش مصنوعی تعیین شود. در این حالت‌ها نیز مدل سه‌گانه برای تحلیل عاملیت می‌تواند کمک کننده باشد و این نشان می‌دهد که فناوری هر قدر هم پیشرفته باشد، مسئولیت باز هم متوجه انسان‌هاست. مسئولیت را باید به گونه‌ای توزیع کنیم که بیشترین فایده را داشته باشد.

      دکتر سعیده بابایی (دکتری فلسفه علم و فناوری، پژوهشگاه علوم انسانی)
      تهیه‌ شده در گروه مطالعات اخلاقی پژوهشگاه فضای مجازی



      برگرفته از: مقاله «هوش مصنوعی، عاملیت و مسئولیت: مورد تقلب فولکس واگن و فراتر از آن» نوشته دبورا جانسون و ماریو وردی‌چیو در سال 2019

      Johnson, D.G., Verdicchio, M. AI, agency and responsibility: the VW fraud case and beyond. AI & Society 34, 639–647 (2019).


      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1997987629
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir