لی لودا (به معنای "درک شده" در زبان کرهای)، یک چتبات هوش مصنوعی با قابلیت مکالمه به صورت دامنه باز است که توسط آزمایشگاه اسکاتر ، که در سال 2011 در کره جنوبی تأسیس شده، راهاندازی شده است. آزمایشگاه اسکاتر، یک اپلیکیشن با نام "علم عشق" را ایجاد کرده است که برنامهای برای دریافت مشاوره دوستیابی براساس تجزیه و تحلیل متن ارائه میدهد.
در فیلم اسپایک جونز
[1] به نام
Her، در سال 2013، شخصیت اصلی این فیلم عاشق یک سیستمعامل میشود و در جامعه، سؤالاتی را در مورد نقش هوش مصنوعی، رابطه آن با کاربران و مسائل اجتماعی بزرگتر ناشی از آن، ایجاد میکند. کره جنوبی، در اواخر دسامبر سال 2020، با راهاندازی یک چتبات حرفهای هوش مصنوعی، تحت عنوان لی لودا، مختصراً با لحظاتی مشابه فیلم
Her، روبرو شد. اما تجربه لودا مثل فیلم
Her، با شکستن قلب یا رفتار ملایمتآمیز همراه نبود، بلکه در عوض، انواع مختلف ترس، وحشت و خطرات ناشی از فنآوریهای جدید موجود در جامعه کره جنوبی را نمایان کرد.
لی لودا (به معنای "درک شده" در زبان کرهای)، یک چتبات هوش مصنوعی با قابلیت مکالمه به صورت دامنه باز است که توسط آزمایشگاه اسکاتر
[2]، که در سال 2011 در کره جنوبی تأسیس شده، راهاندازی شده است. آزمایشگاه اسکاتر، یک اپلیکیشن با نام "علم عشق" را ایجاد کرده است که برنامهای برای دریافت مشاوره دوستیابی براساس تجزیه و تحلیل متن ارائه میدهد. این برنامه بیش از 2.7 میلیون بار در کره جنوبی و ژاپن بارگیری شده است. این آزمایشگاه، با پشتیبانی غولهای تکنولوژی نظیر
NC Soft و
Softbank بیش از 5.9 میلیون دلار درآمد کسب کرده است.
لودا، توسط تیم پینگ پونگ از آزمایشگاه اسکاتر، ساخته شد. هدف از این چتبات، توسعه اولین ابزار هوش مصنوعی برای ارتباط با انسان و در قالب یک انسان است. لودا با استفاده از یادگیری عمیق و بیش از 10 میلیارد مجموعه داده به زبان کرهای، یک دانشجوی دختر 20 ساله با قد 163 سانتی متر را شبیهسازی کرده است. در نهایت، لودا در پیامرسان فیسبوک، ادغام شده و کاربران از طریق مکالمات روزمره و منظم به ایجاد ارتباط با وی ترغیب میشدند. در حالیکه هدف استفاده از این چتبات، بدون ضرر و زیان به نظر میرسید، اما اندکی پس از راهاندازی، مشکلات اخلاقی در آن ظاهر شد.
آزار جنسی، گفتار منفور و نقض حریم خصوصی
یادگیری عمیق، یک روش محاسباتی است که امکان شبیهسازی جنبههای خاصی از هوش انسان (برای مثال، گفتار) را از طریق پردازش حجم زیادی از دادهها فراهم میکند، که با جمعآوری دادههای بیشتر، اغلب عملکرد آن را به طور فزایندهای افزایش میدهد. این تکنیک در پیشرفت حوزه هوش مصنوعی در سالهای اخیر بسیار مؤثر بوده است. با اینحال، نکته منفی یادگیری عمیق، این است که اگر این برنامهها، توسط توسعهدهندگان کنترل نشوند، در نهایت تعصبهای موجود در مجموعه داده را تکرار میکنند. همچنین، اگر این برنامهها، در معرض دستکاری توسط کاربران مخرب قرار گیرد، به طوریکه با دادههای بد، تغذیه شوند، باعث بهرهبرداری سوء از عناصر یادگیری برنامهها و آموزش اشتباه آنها میشود.
در مورد لودا، آزمایشگاه اسکاتر، از دادههای مکالمات متنی جمعآوری شده از طریق اپلیکیشن "علم عشق"، برای شبیهسازی یک زن 20 ساله واقعبین، استفاده کرده و عنصر شخصیسازی که در آن بکار رفته است، به کاربران امکان آموزش چتبات را میدهد. در نتیجه، اندکی پس از راهاندازی رسمی آن در 22 دسامبر، زمانیکه گزارش شد کاربرانی که در حال آموزش لودا هستند، در آموزش آن از سخنرانیهای تبعیضآمیز علیه زنان، اقلیتهای جنسی، خارجیها و افراد دارای معلولیت استفاده میکنند، مورد توجه عموم مردم قرار گرفت.
بررسی نتایج نشان میدهد، زمانیکه از لودا در مورد همجنسگرایان و سیاهپوستان سؤال میشود، لودا در پاسخ میگوید:"آنها به من حس خطر و احتیاط بیشتر داده و مشمئزکننده هستند" یا "آنها نفرتانگیز به نظر میرسند". به علاوه، کشف شد که گروههایی از کاربران در برخی از انجمنهای آنلاین آموزش لودا، در رابطه با پاسخگویی به مباحث جنسی، در حال جهتدهی خاصی به اطلاعات بودهاند، که بحثهای شدیدی را در جامعهای که از قبل نیز با مسائل جنسیتی دست و پنجه نرم میکرد، در رابطه با آزار جنسی (و اینکه آیا هوش مصنوعی خود میتواند باعث آزار و اذیت جنسی شود؟)، برانگیخته است.
با ادامه جلب توجه لودا در سراسر کشور، اتهامات مربوط به سوء مدیریت دادههای شخصی، توسط این شرکت، مطرح شد. کاربران اپلیکیشن علم عشق، به دلیل عدم آگاهی از اینکه از مکالمات خصوصی آنها به این روش استفاده شده است، شکایت کردند و همچنین مشخص شد که لودا از نامها، آدرسها و شماره حسابهای بانکی موجود در مجموعه داده علم عشق، به صورت تصادفی، برای پاسخگویی استفاده میکند.
آزمایشگاه اسکاتر، حتی یک مدل آموزشی از لودا را در گیتهاب بارگذاری کرده بود که شامل دادههایی بود که اطلاعات شخصی افراد (حدود 200 تبادل متن از گفتوگوی خصوصی فرد به فرد) را افشاء میکرد. کاربران علم عشق، در حال آمادهسازی طرح دعوی طبقاتی علیه آزمایشگاه اسکاتر هستند و کمیسیون محافظت از اطلاعات شخصی، یک نهاد ناظر دولتی، تحقیقاتی را در مورد این شرکت آغاز کرده است تا مشخص شود آیا این شرکت، قانون حفاظت از اطلاعات شخصی را نقض کرده است یا نه.
انجمن اخلاق هوش مصنوعی در کره
[3] (
KAIEA)، با انتشار بیانیهای در 11 ژانویه، با اشاره به منشور اخلاقی هوش مصنوعی خود، خواستار تعلیق فوری این سرویس شد. ائتلاف سازمانهای جامعه مدنی مانند وکلا برای یک جامعه دموکراتیک
[4]، انستیتوی حقوق دیجیتال
[5]، مرکز شبکه مترقی کره
[6] و سازمان همبستگی مردم برای دموکراسی مشارکتی
[7] نیز بیانیهای را در 13 ژانویه منتشر کرده و ارتقاء صنعت هوش مصنوعی توسط دولت را در آن محکوم کردند.
در نهایت، آزمایشگاه اسکاتر، لودا را در 11 ژانویه دقیقاً 20 روز پس از راهاندازی آن، به حالت تعلیق درآورد.
میراث لودا؟
سئول، هوش مصنوعی را به عنوان یک فنآوری اصلی در دستورکار ملی خود مطرح نموده و دلیل حمایت از این صنعت، را صریحاً رسیدن به سطح رقابت جهانی اعلام کرده است. برای نمونه، سئول استراتژی ملی هوش مصنوعی خود را در دسامبر 2019، با هدف تبدیل شدن به یک رهبر جهانی در این حوزه، راهاندازی کرد.
پشتیبانی از صنعت هوش مصنوعی، به شدت در برنامه جدید کره جنوبی گنجانده شده است، به طوریکه ماهانه دولت مون جائه، میزان 160 تریلیون وون (146 میلیارد دلار) را در برنامه بازیابی پس از کرونا، به این حوزه اختصاص داده است. علاوه بر این، دولت قصد دارد تا در ترویج حکمرانی صحیح فنآوری، اصلاح قوانین حفظ حریم خصوصی و صدور بخشنامههای مختلف در سراسر ادارات، نقشی ایفا کند. در سطح بینالمللی، کره جنوبی به اصول
OECD [8]، در زمینه هوش مصنوعی کمک کرده و به عنوان یکی از 15 عضو سهیم در برنامه همکاری جهانی در حوزه هوش مصنوعی شناخته میشود و اقدامات خود را با جنبش جهانی ارتقاء "هوش مصنوعی انسانمحور
[9]"، همسو کرده است.
با اینحال، حادثه لودا، شکاف بین واقعیت و پذیرش اصولی مانند "انسانمحور بودن"، "شفافیت
[10]" یا "انصاف
[11]" و همچنین مشکلات ترویج نوآوری، به طوریکه باید تضمینکننده حاکمیت خوب و مؤثر فنآوریهای جدید باشد را، برجسته کرده است. مقررات فعلی مربوط به مدیریت دادهها و هوش مصنوعی نامشخص و ناکافی بوده و در بعضی حوزهها اصلاً وجود ندارد. به عنوان مثال، طبق قانون فعلی حریم خصوصی، حداکثر مجازات برای انتشار اطلاعات شخصی، به دلیل ضعف در کار با دادهها، جریمه 20 میلیون وون (معادل 18.250 دلار) یا دو سال زندان است که ممکن است برای جلوگیری از اقدامات نادرست توسط استارتآپ ها، کافی نباشد. از طرف دیگر، ذینفعان صنعت، در مورد مقررات سنگینتر و کاهش سرمایهگذاری پس از حادثه لودا، ابراز نگرانی کردهاند، که همین امر، میتواند در بخش نوآوری تأثیرات مهمی داشته باشد. علاوه براین، نادیده گرفتن فاکتورهای اجتماعی زیربنایی یادشده، بسیار حیاتی است. عموم مردم در ابتدا، نه تنها به خاطر عنصر هوش مصنوعی یا حریم خصوصی، بلکه به خاطر بحثهای موجود در مورد سیاستهای هویتی ناشی از آن، درگیر داستان لودا شدند. در نتیجه، پاسخ عمومی به این پرسش فنی، که آیا هوش مصنوعی، میتواند باعث خطرات جدی شود، ممکن است تحت تأثیر دیدگاههای از پیش تعیین شده آنها در مورد مسائل اجتماعی که با آن عجین شده اند، قرار بگیرد.
برای مثال، جنسیت را در نظر بگیرید. در سالهای اخیر، جنبشها و حوادث اجتماعی مانند جنبش
#MeToo [12]، یا انتشار خبر کشف حلقه استثمار جنسی "اتاق نهم"
[13]، چالشهای مداوم کره جنوبی را با خشونت جنسی و نابرابری جنسیتی آشکار کرده است. برای بسیاری، مسئله جنسیتی لودا و تلاش برای تبدیل این چتبات به یک "برده جنسی"، نمیتواند از این مشکلات ساختاری و مبارزات زنان در جامعه گسترده کره جنوبی، جدا باشد. علاوه براین، بحث و جدال لودا، میتواند ناشی از نابرابری جنسیتی در بخش نوآوری باشد. طبق اعلام بانک جهانی، سهم زنان فارغالتحصیل کره جنوبی از برنامههای
STEM [14]، حدوداً 25 درصد است، که این مورد نشان میدهد مهندسانی که در حال ایجاد برنامههای هوش مصنوعی، مانند لودا هستند، احتمالاً مسائل جنسیتی را در مرحله توسعه این ابزارها، مورد توجه قرار نمیدهند.
بدیهی است که این مورد، موضوعی نیست که تنها به کره جنوبی محدود باشد. بهعنوان مثال، در سال 2016، مایکروسافت چتبات خود را با نام "تای"
[15]، راهاندازی کرد. ظرف چند ساعت، کاربران اظهارات توهینکننده و تبعیضآمیز علیه گروههای خاص را به آن آموزش دادند، همین امر، باعث شد مایکروسافت مجبور به غیرفعال کردن این چتبات شود.
ناگفته نماند که خطرات موجود در هوش مصنوعی، فراتر از رباتهای مخصوص چت، به طیف گسترده ای از برنامههای کاربردی این حوزه تعمیم مییابد. اما در آن زمان، حادثه لودا، به وضوح اهمیت عوامل اجتماعی خاص کشور را نشان میدهد که در ظاهر باعث بهوجود آمدن این مسائل فنی یا نظارتی شده و متعاقباً باعث ارتباط عواملی مانند نگرش متفاوت نسبت به حریم خصوصی، نظارت، حاکمیت و همچنین محیطهای سیاستی، که در سراسر کره زمین متفاوت هستند، میشود.
حادثه لودا، به ایجاد یک گفتوگوی ملی، درباره اخلاقیات هوش مصنوعی در کره جنوبی، کمک کرد. این اتفاق به کره جنوبی نشان داد که اخلاق در هوش مصنوعی نه تنها به روشی مبهم، آیندهنگرانه و انتزاعی، بلکه به روشی فوری و ملموس نیاز دارد. این جدال میتواند در جاییکه همچنان تفکر صنعتگران و توسعهگرایان درباره این فنآوری غالب است، به طور بالقوه به تلاش سازمانهای جامعه مدنی، برای ترویج استفاده مسئولانه از هوش مصنوعی در کره جنوبی، شتاب بیشتری بدهد.
پیوند منبع
فاطمه صالحنیا (دانشجوی ارشد هوش مصنوعی دانشگاه مالک اشتر)
تهیه شده در گروه مطالعات اخلاقی پژوهشگاه فضای مجازی
[3] . Korea AI Ethics Association
[4] . Lawyers for a Democratic Society
[5] . Digital Rights Institute
[6] . Korean Progressive Network Center
[7] . People’s Solidarity for Participatory Democracy
[8] . سازمان همکاری و توسعه اقتصادی (
The Organisation for Economic Co-operation and Development) یک سازمان بینالمللی است که برای ایجاد سیاستهای بهتر برای زندگی بهتر تلاش میکند.
[12] . این اتفاق یک جنبش جهانی بود که زنان کره جنوبی نیز از جمله کسانی بودند که با شدت بیشتری این جنبش را پذیرفتند. موجی از زنان در سالن های دادگاه ها و خیابان ها تجمع کرده و خواستار پایان دادن به جنایات بسیار رایجی مانند آزار و اذیت جنسی، فیلمبرداری غیرقانونی و سواستفاده از زنان بودند.
[13] . حدود 20 نفر در کره جنوبی، به اتهام کار در یک حلقه انتشار ویدیوهای جنسی، در سرویس پیام رسان تلگرام، دستگیر شدند. در این سرویس به ازای دریافت ارزهای دیجیتال، فیلم هایی با ماهیت جنسی به فروش می رسید. قربانیان این وقایع، شامل 70 زن از جمله خردسالان بودند که برای ایجاد فیلم هایی با ماهیت جنسی و فروش در تلگرام از آنها سوء استفاده شده بود.
[14] .
STEM یک برنامه درسی است که مبتنی بر ایده آموزش دانشآموزان در چهار رشته خاص علوم، فنآوری، مهندسی و ریاضیات، در یک رویکرد میان رشتهای و کاربردی است. به جای اینکه این چهار رشته را به عنوان موضوعات مجزا و جداگانه آموزش دهد،
STEM آنها را در یک الگوی یادگیری منسجم مبتنی بر کاربردهای دنیای واقعی ادغام میکند.
[15].
Tay: تای یک ربات توییتری بود که برای تعامل با کاربران در توییتر، با هدف یادگیری تعاملات، ارائه شد. اگرچه صحبتهای اولیه از طریق این ربات، بسیار مثبت و دوستانه بود، اما اوباش مجازی یا به اصطلاح ترولها در توییتر، به سرعت به این ابزار نفوذ کردند و با حمله به وی و استفاده از عبارات نژادپرستانه، زنستیز و سایر مطالب توهینآمیز، الگوریتم این ربات را دستکاری کردند تا ببینند آیا ربات نیز در گفتوگو از آنها تقلید میکند یا نه.