• مسائل مربوط به اخلاق هوش مصنوعی و انحراف چت‌بات‌ها در کره جنوبی

      مسائل مربوط به اخلاق هوش مصنوعی و انحراف چت‌بات‌ها در کره جنوبی

      مسائل مربوط به اخلاق هوش مصنوعی و انحراف چت‌بات‌ها در کره جنوبی

      لی لودا (به معنای "درک شده" در زبان کره‌ای)، یک چت‌بات هوش مصنوعی با قابلیت مکالمه به صورت دامنه باز است که توسط آزمایشگاه اسکاتر ، که در سال 2011 در کره جنوبی تأسیس شده، راه‌اندازی شده است. آزمایشگاه اسکاتر، یک اپلیکیشن با نام "علم عشق" را ایجاد کرده است که برنامه‌ای برای دریافت مشاوره دوست‌یابی براساس تجزیه و تحلیل متن ارائه می‌دهد.

      در فیلم اسپایک جونز[1] به نام Her، در سال 2013، شخصیت اصلی این فیلم عاشق یک سیستم‌عامل می‌شود و در جامعه، سؤالاتی را در مورد نقش هوش مصنوعی، رابطه آن با کاربران و مسائل اجتماعی بزرگتر ناشی از آن، ایجاد می‌کند. کره جنوبی، در اواخر دسامبر سال 2020، با راه‌اندازی یک چت‌بات حرفه‌ای هوش مصنوعی، تحت عنوان لی لودا، مختصراً با لحظاتی مشابه فیلم Her، روبرو شد. اما تجربه لودا مثل فیلم Her، با شکستن قلب یا رفتار ملایمت‌آمیز همراه نبود، بلکه در عوض، انواع مختلف ترس، وحشت و خطرات ناشی از فن‌آوری‌های جدید موجود در جامعه کره جنوبی را نمایان کرد.
      لی لودا (به معنای "درک شده" در زبان کره‌ای)، یک چت‌بات هوش مصنوعی با قابلیت مکالمه به صورت دامنه باز است که توسط آزمایشگاه اسکاتر[2]، که در سال 2011 در کره جنوبی تأسیس شده، راه‌اندازی شده است. آزمایشگاه اسکاتر، یک اپلیکیشن با نام "علم عشق" را ایجاد کرده است که برنامه‌ای برای دریافت مشاوره دوست‌یابی براساس تجزیه و تحلیل متن ارائه می‌دهد. این برنامه بیش از 2.7 میلیون بار در کره جنوبی و ژاپن بارگیری شده است. این آزمایشگاه، با پشتیبانی غول‌های تکنولوژی نظیر NC Soft و Softbank بیش از 5.9 میلیون دلار درآمد کسب کرده است.
      لودا، توسط تیم پینگ پونگ از آزمایشگاه اسکاتر، ساخته شد. هدف از این چت‌بات، توسعه اولین ابزار هوش مصنوعی برای ارتباط با انسان و در قالب یک انسان است. لودا با استفاده از یادگیری عمیق و بیش از 10 میلیارد مجموعه داده به زبان کره‌ای، یک دانشجوی دختر 20 ساله با قد 163 سانتی متر را شبیه‌سازی کرده است. در نهایت، لودا در پیام‌رسان فیس‌بوک، ادغام شده و کاربران از طریق مکالمات روزمره و منظم به ایجاد ارتباط با وی ترغیب می‌شدند. در حالی‌که هدف استفاده از این چت‌بات، بدون ضرر و زیان به نظر می‌رسید، اما اندکی پس از راه‌اندازی، مشکلات اخلاقی در آن ظاهر شد.
      آزار جنسی، گفتار منفور و نقض حریم خصوصی
      یادگیری عمیق، یک روش محاسباتی است که امکان شبیه‌سازی جنبه‌های خاصی از هوش انسان (برای مثال، گفتار) را از طریق پردازش حجم زیادی از داده‌ها فراهم می‌کند، که با جمع‌آوری داده‌های بیشتر، اغلب عملکرد آن را به طور فزاینده‌ای افزایش می‌دهد. این تکنیک در پیشرفت حوزه هوش مصنوعی در سال‌های اخیر بسیار مؤثر بوده است. با این‌حال، نکته منفی یادگیری عمیق، این است که اگر این برنامه‌ها، توسط توسعه‌دهندگان کنترل نشوند، در نهایت تعصب‌های موجود در مجموعه داده را تکرار می‌کنند. همچنین، اگر این برنامه‌ها، در معرض دستکاری توسط کاربران مخرب قرار گیرد، به طوری‌که با داده‌های بد، تغذیه شوند، باعث بهره‌برداری سوء از عناصر یادگیری برنامه‌ها و آموزش اشتباه آنها می‌شود.
      در مورد لودا، آزمایشگاه اسکاتر، از داده‌های مکالمات متنی جمع‌آوری شده از طریق اپلیکیشن "علم عشق"، برای شبیه‌سازی یک زن 20 ساله واقع‌بین، استفاده کرده و عنصر شخصی‌سازی که در آن بکار رفته است، به کاربران امکان آموزش چت‌بات را می‌دهد. در نتیجه، اندکی پس از راه‌اندازی رسمی آن در 22 دسامبر، زمانی‌که گزارش شد کاربرانی که در حال آموزش لودا هستند، در آموزش آن از سخنرانی‌های تبعیض‌آمیز علیه زنان، اقلیت‌های جنسی، خارجی‌ها و افراد دارای معلولیت استفاده می‌کنند، مورد توجه عموم مردم قرار گرفت.
      بررسی نتایج نشان می‌دهد، زمانی‌که از لودا در مورد همجنسگرایان و سیاه‌پوستان سؤال می‌شود، لودا در پاسخ می‌گوید:"آنها به من حس خطر و احتیاط بیشتر داده و مشمئزکننده هستند" یا "آنها نفرت‌انگیز به نظر می‌رسند". به علاوه، کشف شد که گروه‌هایی از کاربران در برخی از انجمن‌های آنلاین آموزش لودا، در رابطه با پاسخگویی به مباحث جنسی، در حال جهت‌دهی خاصی به اطلاعات بوده‌اند، که بحث‌های شدیدی را در جامعه‌ای که از قبل نیز با مسائل جنسیتی دست و پنجه نرم می‌کرد، در رابطه با آزار جنسی (و اینکه آیا هوش مصنوعی خود می‌تواند باعث آزار و اذیت جنسی شود؟)، برانگیخته است.
      با ادامه جلب توجه لودا در سراسر کشور، اتهامات مربوط به سوء مدیریت داده‌های شخصی، توسط این شرکت، مطرح شد. کاربران اپلیکیشن علم عشق، به دلیل عدم آگاهی از اینکه از مکالمات خصوصی آنها به این روش استفاده شده است، شکایت کردند و همچنین مشخص شد که لودا از نام‌ها، آدرس‌ها و شماره حساب‌های بانکی موجود در مجموعه داده علم عشق، به صورت تصادفی، برای پاسخگویی استفاده می‌کند.
      آزمایشگاه اسکاتر، حتی یک مدل آموزشی از لودا را در گیت‌هاب بارگذاری کرده بود که شامل داده‌هایی بود که اطلاعات شخصی افراد (حدود 200 تبادل متن از گفت‌وگوی خصوصی فرد به فرد) را افشاء می‌کرد. کاربران علم عشق، در حال آماده‌سازی طرح دعوی طبقاتی علیه آزمایشگاه اسکاتر هستند و کمیسیون محافظت از اطلاعات شخصی، یک نهاد ناظر دولتی، تحقیقاتی را در مورد این شرکت آغاز کرده است تا مشخص شود آیا این شرکت، قانون حفاظت از اطلاعات شخصی را نقض کرده است یا نه.
      انجمن اخلاق هوش مصنوعی در کره[3] (KAIEA)، با انتشار بیانیه‌ای در 11 ژانویه، با اشاره به منشور اخلاقی هوش مصنوعی خود، خواستار تعلیق فوری این سرویس شد. ائتلاف سازمان‌های جامعه مدنی مانند وکلا برای یک جامعه دموکراتیک[4]، انستیتوی حقوق دیجیتال[5]، مرکز شبکه مترقی کره[6] و سازمان همبستگی مردم برای دموکراسی مشارکتی[7] نیز بیانیه‌ای را در 13 ژانویه منتشر کرده و ارتقاء صنعت هوش مصنوعی توسط دولت را در آن محکوم کردند.
      در نهایت، آزمایشگاه اسکاتر، لودا را در 11 ژانویه دقیقاً 20 روز پس از راه‌اندازی آن، به حالت تعلیق درآورد.
      میراث لودا؟
      سئول، هوش مصنوعی را به عنوان یک فن‌آوری اصلی در دستورکار ملی خود مطرح نموده و دلیل حمایت از این صنعت، را صریحاً رسیدن به سطح رقابت جهانی اعلام کرده است. برای نمونه، سئول استراتژی ملی هوش مصنوعی خود را در دسامبر 2019، با هدف تبدیل شدن به یک رهبر جهانی در این حوزه، راه‌اندازی کرد.
      پشتیبانی از صنعت هوش مصنوعی، به شدت در برنامه جدید کره جنوبی گنجانده شده است، به طوری‌که ماهانه دولت مون جائه، میزان 160 تریلیون وون (146 میلیارد دلار) را در برنامه بازیابی پس از کرونا، به این حوزه اختصاص داده است. علاوه‌ بر ‌این، دولت قصد دارد تا در ترویج حکمرانی صحیح فن‌آوری، اصلاح قوانین حفظ حریم خصوصی و صدور بخشنامه‌های مختلف در سراسر ادارات، نقشی ایفا کند. در سطح بین‌المللی، کره جنوبی به اصول OECD [8]، در زمینه هوش مصنوعی کمک کرده و به عنوان یکی از 15 عضو سهیم در برنامه همکاری جهانی در حوزه هوش مصنوعی شناخته می‌شود و اقدامات خود را با جنبش جهانی ارتقاء "هوش مصنوعی انسان‌محور[9]"، همسو کرده است.
      با این‌حال، حادثه لودا، شکاف بین واقعیت و پذیرش اصولی مانند "انسان‌محور بودن"، "شفافیت[10]" یا "انصاف[11]" و همچنین مشکلات ترویج نوآوری، به طوری‌که باید تضمین‌کننده حاکمیت خوب و مؤثر فن‌آوری‌های جدید باشد را، برجسته کرده است. مقررات فعلی مربوط به مدیریت داده‌ها و هوش مصنوعی نامشخص و ناکافی بوده و در بعضی حوزه‌ها اصلاً وجود ندارد. به عنوان مثال، طبق قانون فعلی حریم خصوصی، حداکثر مجازات برای انتشار اطلاعات شخصی، به دلیل ضعف در کار با داده‌ها، جریمه 20 میلیون وون (معادل 18.250 دلار) یا دو سال زندان است که ممکن است برای جلوگیری از اقدامات نادرست توسط استارت‌آپ ‌ها، کافی نباشد. از طرف دیگر، ذینفعان صنعت، در مورد مقررات سنگین‌تر و کاهش سرمایه‌گذاری پس از حادثه لودا، ابراز نگرانی کرده‌اند، که همین امر، می‌تواند در بخش نوآوری تأثیرات مهمی داشته باشد. علاوه براین، نادیده گرفتن فاکتورهای اجتماعی زیربنایی یادشده، بسیار حیاتی است. عموم مردم در ابتدا، نه تنها به خاطر عنصر هوش مصنوعی یا حریم خصوصی، بلکه به خاطر بحث‌های موجود در مورد سیاست‌های هویتی ناشی از آن، درگیر داستان لودا شدند. در نتیجه، پاسخ عمومی به این پرسش فنی، که آیا هوش مصنوعی، می‌تواند باعث خطرات جدی شود، ممکن است تحت تأثیر دیدگاه‌های از پیش تعیین شده آنها در مورد مسائل اجتماعی که با آن عجین شده اند، قرار بگیرد.
      برای مثال، جنسیت را در نظر بگیرید. در سال‌های اخیر، جنبش‌ها و حوادث اجتماعی مانند جنبش #MeToo [12]، یا انتشار خبر کشف حلقه استثمار جنسی "اتاق نهم"[13]، چالش‌های مداوم کره جنوبی را با خشونت جنسی و نابرابری جنسیتی آشکار کرده است. برای بسیاری، مسئله جنسیتی لودا و تلاش برای تبدیل این چت‌بات به یک "برده جنسی"، نمی‌تواند از این مشکلات ساختاری و مبارزات زنان در جامعه گسترده کره جنوبی، جدا باشد. علاوه براین، بحث و جدال لودا، می‌تواند ناشی از نابرابری جنسیتی در بخش نوآوری باشد. طبق اعلام بانک جهانی، سهم زنان فارغ‌التحصیل کره جنوبی از برنامه‌های STEM [14]، حدوداً 25 درصد است، که این مورد نشان می‌دهد مهندسانی که در حال ایجاد برنامه‌های هوش مصنوعی، مانند لودا هستند، احتمالاً مسائل جنسیتی را در مرحله توسعه این ابزارها، مورد توجه قرار نمی‌دهند.
      بدیهی است که این مورد، موضوعی نیست که تنها به کره جنوبی محدود باشد. به‌عنوان مثال، در سال 2016، مایکروسافت چت‌بات خود را با نام "تای"[15]، راه‌اندازی کرد. ظرف چند ساعت، کاربران اظهارات توهین‌کننده و تبعیض‌آمیز علیه گروه‌های خاص را به آن آموزش دادند، همین امر، باعث شد مایکروسافت مجبور به غیرفعال کردن این چت‌بات شود.
      ناگفته نماند که خطرات موجود در هوش مصنوعی، فراتر از ربات‌های مخصوص چت، به طیف گسترده ای از برنامه‌های کاربردی این حوزه تعمیم می‌یابد. اما در آن زمان، حادثه لودا، به وضوح اهمیت عوامل اجتماعی خاص کشور را نشان می‌دهد که در ظاهر باعث به‌وجود آمدن این مسائل فنی یا نظارتی شده و متعاقباً باعث ارتباط عواملی مانند نگرش متفاوت نسبت به حریم خصوصی، نظارت، حاکمیت و همچنین محیط‌های سیاستی، که در سراسر کره زمین متفاوت هستند، می‌شود.
      حادثه لودا، به ایجاد یک گفت‌و‌گوی ملی، درباره اخلاقیات هوش مصنوعی در کره جنوبی، کمک کرد. این اتفاق به کره جنوبی نشان داد که اخلاق در هوش مصنوعی نه تنها به روشی مبهم، آینده‌نگرانه و انتزاعی، بلکه به روشی فوری و ملموس نیاز دارد. این جدال می‌تواند در جایی‌که همچنان تفکر صنعت‌گران و توسعه‌گرایان درباره این فن‌آوری غالب است، به طور بالقوه به تلاش سازمان‌های جامعه مدنی، برای ترویج استفاده مسئولانه از هوش مصنوعی در کره جنوبی، شتاب بیشتری بدهد.

      پیوند منبع


      فاطمه صالح‌نیا (دانشجوی ارشد هوش مصنوعی دانشگاه مالک اشتر)
      تهیه ‌شده در گروه مطالعات اخلاقی پژوهشگاه فضای مجازی




      [1] . Spike Jonze
      [2] . ScatterLab
      [3] . Korea AI Ethics Association
      [4] . Lawyers for a Democratic Society
      [5] . Digital Rights Institute
      [6] . Korean Progressive Network Center
      [7] . People’s Solidarity for Participatory Democracy
      [8] . سازمان همکاری و توسعه اقتصادی (The Organisation for Economic Co-operation and Development) یک سازمان بین‌المللی است که برای ایجاد سیاست‌های بهتر برای زندگی بهتر تلاش می‌کند.
      [9] . human-centered AI
      [10] . transparency
      [11] . fairness
      [12] . این اتفاق یک جنبش جهانی بود که زنان کره جنوبی نیز از جمله کسانی بودند که با شدت بیشتری این جنبش را پذیرفتند. موجی از زنان در سالن های دادگاه ها و خیابان ها تجمع کرده و خواستار پایان دادن به جنایات بسیار رایجی مانند آزار و اذیت جنسی، فیلمبرداری غیرقانونی و سواستفاده از زنان بودند.
      [13] . حدود 20 نفر در کره جنوبی، به اتهام کار در یک حلقه انتشار ویدیوهای جنسی، در سرویس پیام رسان تلگرام، دستگیر شدند. در این سرویس به ازای دریافت ارزهای دیجیتال، فیلم هایی با ماهیت جنسی به فروش می رسید. قربانیان این وقایع، شامل 70 زن از جمله خردسالان بودند که برای ایجاد فیلم هایی با ماهیت جنسی و فروش در تلگرام از آنها سوء استفاده شده بود.
      [14] . STEM یک برنامه درسی است که مبتنی بر ایده آموزش دانش‌آموزان در چهار رشته خاص علوم، فن‌آوری، مهندسی و ریاضیات، در یک رویکرد میان رشته‌ای و کاربردی است. به جای اینکه این چهار رشته را به عنوان موضوعات مجزا و جداگانه آموزش دهد، STEM آنها را در یک الگوی یادگیری منسجم مبتنی بر کاربردهای دنیای واقعی ادغام می‌کند.
      [15]. Tay: تای یک ربات توییتری بود که برای تعامل با کاربران در توییتر، با هدف یادگیری تعاملات، ارائه شد. اگرچه صحبت‌های اولیه از طریق این ربات، بسیار مثبت و دوستانه بود، اما اوباش مجازی یا به اصطلاح ترول‌ها در توییتر، به سرعت به این ابزار نفوذ کردند و با حمله به وی و استفاده از عبارات نژادپرستانه، زن‌ستیز و سایر مطالب توهین‌آمیز، الگوریتم این ربات را دستکاری کردند تا ببینند آیا ربات نیز در گفت‌و‌گو از آنها تقلید می‌کند یا نه.
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1997987629
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir