به گزارش
پژوهشگاه فضای مجازی؛ بحث در خصوص خودمختاری
[1] هوش مصنوعی، یکی از مباحث داغ جهان امروز است. عبارت خودمختاری معانی مختلفی دارد و همین تعدد معانی، باعث سوء ارتباط در رسانهها و در میان عوام شده است. خودمختاری هوش مصنوعی در رسانهها و عوام به گونهای جا افتاده که تصور بر این است، آنچه که در کنترل انسانی نباشد، جای نگرانی و حتی ترس دارد. برخی از آیندهپژوهان معتقدند هوش مصنوعی علاوه بر اینکه از کنترل طراحان، مهندسان و شرکتهای سازنده خارج خواهد شد، تا حدی پیچیده و خودمختار میشود که جهان را تصاحب خواهد کرد. برای مثال بوستروم در ایده فراهوش
[2] خود بیان میکند که هوش مصنوعی در آینده به نقطهای میرسد که قادر است برای خود هدف تعیین کند و خود نیز مصنوعاتی را برای رسیدن به این اهداف خواهد ساخت. گویی نقطه عطف در تاریخ توسعه هوش مصنوعی زمانی است که هوش مصنوعی شروع میکند به شیوه خودش عمل کند؛ یعنی اعمالی را به شکل ارادی انجام دهد. ویژگی ارادی بودن کنشهای یک عامل، از نگاه برخی از متخصصان هوش مصنوعی با دارا بودن ویژگی آگاهی
[3] در موجودات هوشمند همبستگی دارد. به بیان دیگر، موجودی میتواند اعمال ارادی انجام دهد که دارای آگاهی باشد. در این گزارش ما عمدتاً بر دو مفهوم عاملیت
[4] و مسئولیت
[5] متمرکز میشویم. و مفهوم عاملیت را نه به معنای انتزاعی آن، بلکه از جهت رابطهای که با مسئولیت اخلاقی و حقوقی برقرار میکند، مورد بررسی قرار میدهیم.
برخی از متخصصان این حوزه به هوش مصنوعی همان عاملیتی را نسبت میدهند که به انسانها نسبت داده میشود. سردرگمیها و ابهاماتی که درباره چیستی و تعاریف عاملیت اخلاقی وجود دارد، باعث بدفهمی درباره آینده هوش مصنوعی شده است. در این گزارش مفهوم سهگانهای از عاملیت معرفی میشود که شامل عاملیت علّی
[6] مصنوع و عاملیت قصدمندانه
[7] انسانها است. برای درک بهتر این دو مفهوم از عاملیت، به موردکاوی یک خطای فناورانه در شرکت فولکس واگن میپردازیم و عاملیت انسانی و فناورانه را در این مثال از یکدیگر تفکیک میکنیم. در این مثال مشاهده میکنیم که یک نرم افزار نقش مهمی در بروز یک خطا داشته و در امکانپذیر شدن چنین خطایی عاملیت داشته است. سپس این موردکاوی را با این تصور که هوش مصنوعی به سمت خودمختاری بیشتر در آینده پیش میرود، بسط میدهیم و نکاتی را در باب عاملیت و مسئولیت هوش مصنوعی مطرح میکنیم.
مفهوم عاملیت
عاملیت در معنای سنتی کلمه معادل با توان کنشگری هستومند
[8] است. به طور کلی دو نوع رفتار و کنش را میتوان از یکدیگر متمایز کرد: 1) عمل قصدمندانه که برآمده از حالات ذهنی است و به طور سنتی منحصر به انسان است 2) عمل برآمده از روابط علّی مادی که هم انسان و هم مصنوع میتوانند آن را دارا باشند. در عاملیت نوع اول، عامل میتواند پاسخگو، وظیفهمند و شایسته ستایش و مجازات باشد. اما عاملی که دارای عاملیت نوع دوم باشد، چنین ویژگیهایی را ندارد. البته، برخی از متخصصان معتقدند که عاملیت ارادی را به ماشین نیز میتوان نسبت داد و حتی ماشین به علت کارآمدی بالاتری که دارد، از این جهت میتواند مناقشهبرانگیزتر باشد، چرا که میتواند مسئولیت را هم بپذیرد.
به هر روی، چون امکانهای مختلف برای توسعه هوش مصنوعی در آینده هنوز مورد توافق نیستند، ما همچنان درباره عاملیت هوش مصنوعی سردرگم هستیم و توافقی قطعی روی تعریف این مفهوم و نسبت دادن آن به هوش مصنوعی وجود ندارد. به نظر میرسد که هوش مصنوعی در حال حرکت از عاملیت نوع دوم به سمت عاملیت نوع اول است و این حرکت مسئله ساز بوده و باعث شده است آیندههایی غیر واقعی را برای هوش مصنوعی پیش بینی کنیم. آنچه که ما را در ردیابی و توزیع مسئولیت راهنمایی میکند، پیگیری خطاهای فناوری است. فهم بهتر از عاملیت نیز باعث میشود، دید شفافتری نسبت به مفهوم مسئولیت پیدا کنیم. ما در این گزارش نوع سومی از عاملیت را معرفی میکنیم که دو عاملیت اول را در بر میگیرد و به ادعای دبورا جانسون
[9] و ماریو وردی چیو
[10] که این ایده را مطرح کردهاند، میتواند عملکرد هوش مصنوعی را در بافتار جهان واقعی توضیح دهد.
انواع عاملیت
یکی از تعابیری که برای عاملیت ارائه شده است، توانایی کنشگری است. در گذشته کنش را عملی ارادی و منحصر به انسان میدانستیم. اما امروزه بحث از هوش مصنوعی به عنوان یک عامل خودمختار نیز مطرح شده است، به گونهای که عمل یک برنامه یا روبات را نوعی کنش در نظر میگیرند و در نتیجه آن را یک عامل تلقی میکنند. اما به باور برخی از اندیشمندن این حوزه نظیر دبورا جانسون، این عاملها مصنوعی هستند، زیرا در قالب مدارهای الکترونیک از پیش طراحیشده عملکرد خود را انجام میدهند نه کنشهای طبیعی انسانی.
در ادامه، ابتدا دو نوع فهم از عاملیت را از یکدیگر تفکیک میکنیم. سپس، این دو فهم را در قالب مدلی تحت عنوان عاملیت سهگانه ترکیب میکنیم.
فهم وسیع یا عاملیت علّی یا تأثیر علّی
این نوع از عاملیت در همه جا وجود دارد. وقتی هستومند
[11]ها وارد روابط علّی میشوند روی یکدیگر کنش انجام میدهند، با هم تعامل میکنند و تغییراتی را روی یکدیگر ایجاد میکنند. در نتیجه داشتن عاملیت روی مخاطبِ عمل در همه جا به نحو مستقیم و غیر مستقیم میتواند وجود داشته باشد. رویکردهایی نظیر مطالعات علم و فناوری
[12] و نظریه شبکه-عامل
[13] چنین فهمی از عاملیت دارند. چنانکه برونو لاتور
[14]، فیلسوف و جامعهشناس شهیر معتقد است برای فهمیدن اینکه موجودی عامل هست یا نه، پرسیدن دو سوال کافیست:
1) آیا این موجود تغییری در روند کنش دیگر عاملان ایجاد میکند؟
2) آیا آزمونی هست که یک فرد دیگر بتواند این تغییر را آشکار کند؟
اگر پاسخ این دو پرسش مثبت باشد، این موجود چه انسان باشد و چه نا انسان، عاملیت دارد و عامل است.
توجه به این نوع از عاملیت موجب میشود که تأثیرات فناوری بر شکلگیری و تغییر جهان را ببینیم و به رسمیت بشناسیم. فناوری بر نظامهای اجتماعی، روابط میان نهادها و همچنین بر ارزشها تأثیرگذار است. یک نمونه از این تأثیرات را در قالب یک موردکاوی در این گزارش بیان میکنیم. در سال ۲۰۱۵ آژانس حفاظت از محیط زیست (
EPA)
[15] در آمریکا، فهمید که موتورهای دیزلی شرکت فولکس واگن
[16] دارای نقص ابزاری هستند و این شرکت برای آنکه بتواند از آزمون استاندارد
EPA عبور کند، با استفاده از یک نرمافزار دستگاه شکست، سیستم کنترل انتشار موتور را به گونهای تغییر میدهد که از طریق انجام تقلب انتشار موتور را کاهش دهد. این نرمافزار دارای تأثیر و عاملیت علّی است و به سناریوهایی که فاجعههای فناورانه را توصیف میکنند شبیه است همچنین موجب آسیب رساندن به بشر میشود. اگرچه این نرم افزار در ممکن شدن تقلب و بروز آسیبهای زیستمحیطی نقش دارد، کسی از مسئولیت آن در تقلب چیزی نمیگوید.
فهم محدود یا عاملیت ارادی
این نوع از عاملیت ناظر به کنشهای ارادی است که توسط انسان انجام میشوند. به باور جانسون و وردیچیو اراده
[17]، نوعی حالت ذهنی
[18] است که هوش مصنوعی آن را دارا نیست. ممکن است عدهای از متخصصان علوم کامپیوتر به هوش مصنوعی اراده نسبت دهند، اما این میتواند یک معنای استعاری برای اراده باشد. برخی دیگر از متخصصان حوزه هوش مصنوعی نیز معتقدند زمانی در آینده هوش مصنوعی میتواند به اراده و قصدمندی دست یابد. اما این نیز هنوز یک گمان است.
با فرض اینکه اراده هوش مصنوعی یک استعاره است، در مثال تقلب فولکس واگن هم از عاملیت علّی نرمافزار یا از عاملیت ارادی به معنای استعاری آن سخن میگوییم. هر دو عاملیت علّی و ارادی، دارای اثر علّی هستند ولی در عاملیت ارادی شروع زنجیره علّیت با اراده یک عامل است. اراده و کنش ارادی از طریق رابطهای پیچیده به مسئولیت مرتبط میشوند. در مثال فولکس واگن بعد از انجام شدن تقلب، مدیر و مهندسان مسئول تقلب شناخته شدند. چراکه شروع یک عاملیت علّی با عاملیت ارادی است؛ یعنی با انسانها، که در اینجا مهندسان و مدیران شرکت فولکس واگن هستند. مدیر ارشد این شرکت مدعی است که استفاده از دستگاه شکست به پیشنهاد مهندسان بود، زیرا مهندسان دریافتند که موتورهای دیزلیشان معیارهای استاندارد
EPA را برآورده نمیکند. اما در هنگام توزیع مسئولیت این تقلب باید توجه کرد که این کنش ارادی مدیرها بوده که سطح مشخصی از عملکرد را برای خودروهای این شرکت تعریف کردهاند و هدف دستیابی به معیار
EPA را نیز این مدیران درخواست کرده بودند و این عاملیتها در تحقق یافتن تقلب دخیل بودهاند. این مدیران فولکس واگن بودند که اراده کردند اهداف مشخصی را تعیین کنند. همچنین فرهنگ شرکت، طبق اراده آنها طوری شکل گرفته است که مهندسها از عواقب شکست در این آزمون استاندارد واهمه داشته باشند و نتوانند به مدیران خود بگویند که این هدف برای موتورهای دیزلی شرکت قابل دستیابی نیست. بنابراین مسئولیت این دسته از خطاها علاوه بر دنباله علّی به اراده و قصدمندی عاملها نیز وابسته است.
مدل عاملیت سهگانه
مقصود از عاملیت سهگانه در ادبیات جانسون و وردیچیو عاملیتی است که انسان به همراه فناوری بروز میدهد. در این مدل نقش فناوری و انسان را در شکلگیری وقایع توضیح میدهیم، اما به نقش طبیعت یا موضوعات دیگر نمیپردازیم. عاملیت علّی و ارادی هیچ یک به تنهایی نمیتوانند کل یک داستان را فراچنگ بیاورند. مثلاً در مورد فولکس واگن، عاملیت علّی صرفاً اثر علّی دستگاه شکست را میبیند، ولی اراده مدیران ارشد و مهندسان را در نظر نمیگیرد. عاملیت ارادی نیز اراده و علّیت انسانی را میبیند و به سهم مصنوعاتی که انسان برای تحقق ارادهاش از آن استفاده کرده توجهی نمیکند. در حالی که دستگاه شکست به مثابه یک فناوری در شکل دادن به اراده مهندسان و ممکن شدن تقلب نقش داشته است.
در نتیجه ترکیب هر دو نوع از عاملیت به حل بهتر مسئله کمک میکند؛ اینکه چگونه اراده عاملان انسانی و تأثیر مصنوعات توانسته نتایجی مانند تقلب فولکس واگن را تولید کند. این دو عاملیت در قالب مفهوم عاملیت سهگانه (به این معنا که انسان با مصنوع کنشگری میکند تا به هدفی مشخص دست یابد) با یکدیگر ترکیب میشوند. در عاملیت سهگانه، سه مؤلفه را میتوان از یکدیگر تفکیک کرد:
یک) کاربری که میخواهد به هدفی مشخص برسد و وظیفه دستیابی به هدف را به طراح واگذار میکند. در مثال فولکس واگن مدیر شرکت با هدف رساندن ماشین به استاندارد
EPA در جایگاه کاربر قرار میگیرد.
دو) طراحی که یک مصنوع را برای رسیدن به این هدف مشخص میسازد. در مثال فولکس واگن مهندس شرکت با ساختن دستگاه شکست هدف مدیر را محقق میکند.
سه) مصنوعی که اثر علّی لازم را برای رسیدن به هدف تولید میکند. در مثال پیشین دستگاه شکست به مثابه مصنوع عمل میکند.
وجود همه این عاملها برای تحقق تقلب در شرکت فولکس واگن ضروری بودند. در اینجا کاربر با اراده خود هدف را به طراح واگذار میکند و طراح با اراده خود، مصنوعی را میسازد.
دستگاه شکستی که تقلب فولکس واگن را ممکن کرد، متشکل از کدهایی بود که توسط مهندسان آن نوشته شده بود. اما ممکن است در آینده مسئله اینقدر سرراست نباشد. فناوریها روز به روز خودمختارتر میشوند و وظایف پیچیدهتری به آنها واگذار میشود و این موضوع واگذاری مسئولیت را سختتر میکند. انسانها هر روز به اثر علّی فناوری برای انجام کارهایشان وابستهتر میشوند تا جایی که شاید انسان در آینده فقط وظیفه تعیین هدف را انجام دهد و ماشین خود شکل دستیابی به هدف را بنویسد و تعیین کند. مثلاً در آینده اگر شرایطی مشابه برای شرکت فولکس واگن پیش بیاید، مهندسان طراح با سیستمهای هوش مصنوعیای که میتوانند نرمافزار طراحی کنند جایگزین شوند. به این طریق که این هدف را برای هوش مصنوعی تعیین کنند که در آزمون
EPA موفق شود. در نهایت دریابند که هوش مصنوعی به شکل خودمختار تصمیم گرفته که با کنترل موتور و راهکاری مشابه استفاده از دستگاه شکست به این هدف دست یابد. حال اگر این تقلب کشف شود، عاملیت را چگونه درک کرده و مسئولیت را چگونه واگذار کنیم؟
در بخش بعد مدلی که توسط جانسون و وردیچیو برای پاسخ به این سوال ارائه میشود را توضیح میدهیم.
ادامه دارد ...
دکتر سعیده بابایی (دکتری فلسفه علم و فناوری، پژوهشگاه علوم انسانی)
تهیه شده در گروه مطالعات اخلاقی پژوهشگاه فضای مجازی
برگرفته از مقاله «هوش مصنوعی، عاملیت و مسئولیت: مورد تقلب فولکس واگن و فراتر از آن» نوشته دبورا جانسون و ماریو وردیچیو در سال 2019
Johnson, D.G., Verdicchio, M. AI, agency and responsibility: the VW fraud case and beyond.
AI & Society 34
, 639–647 (2019).