سناتور مارکو روبیو: «در گذشته برای تهدید آمریکا نیاز به 10 ناو هواپیمابر، سلاح هستهای و موشکهای دوربُرد بود؛ اما امروزه تنها نیاز به تولید ویدئوهای جعلی واقعنمایی است که انتخابات ما را تضعیف کند. مسئلهای که کشورها را در بحرانی اساسی فرو میبرد و عمیقاً تضعیف میکند.»
یک سال پیش از انتخابات 2020 آمریکا سایت نیسوس
[1] گزارشی (فهم اقتصاد قاچاق برای رسانههای مصنوعی)
[2] منتشر کرد که میگفت «در کوتاه مدت (انتخابات پیش رو)، پیشبینی نمیشود که از جعل عمیق
[3] گسترده در کمپینهای مربوط به اطلاعات گمراهکننده استفاده شود». با نگاه به گذشته معلوم میشود که حق با کارشناسان نیسوس بود، اما این نظر در اقلیت بود. بسیاری از سیاستمداران و مؤسسات نسبت به این خطر هشدار میدادند: «سناریویی را مجسم کنید که در آستانه انتخابات سال بعد، نامزد دموکرات در ویدئویی ظاهر میشود و از دونالد ترامپ حمایت میکند. اکنون، این سناریو را برعکس تصور کنید.»
[4]
پتانسیل بالای جعل عمیق برای اطلاعات گمراهکننده از مدتها قبل مشاهده شده بود. در یک آزمون آنلاین ، 49 درصد از افرادی که از وبسایت برگزار کننده آزمون، بازدید کردهاند، گفتهاند که بهغلط معتقدند که چهره ساختگی نیکسون واقعی بوده و 65 درصد اعتقاد داشتند که صدای وی واقعی است.
[5]
متخصصان میگویند که تشخیص جعل عمیق تقریباً غیرممکن است.
[6] کاتاریا
[7] و لال
[8] میگویند که «وجود چنین نرمافزار منبع باز و دسترسپذیری آنها در بازار برای جعل و ترویج اطلاعات غلط باعث ضرورت توجه به تشخیص و حذف محتواهای اینچنینی شده است»
[9]. در زیر فهرستی از ظرفیتهای جعل عمیق را میبینیم:
- سناتور مارکو روبیو
[10]:
«در گذشته برای تهدید آمریکا نیاز به 10 ناو هواپیمابر، سلاح هستهای و موشکهای دوربُرد بود؛ اما امروزه تنها نیاز به تولید ویدئوهای جعلی واقعنمایی است که انتخابات ما را تضعیف کند. مسئلهای که کشورها را در بحرانی اساسی فرو میبرد و عمیقاً تضعیف میکند.»
- سناتور جمهوریخواه بن ساس
[11] که لایحهای را برای اعلام جرم علیه جعل عمیق مطرح کرد، در سال 2019 هشدار داد که این تکنولوژی میتواند حیات آدمی و بازارهای مالی را به تباهی بکشاند و حتی موجب درگیریهای نظامی در سراسر جهان شود.
- اطلاعات گمراهکننده ناشی از جعل عمیق میتواند چالشی برای انتخابات باشد، زیرا تمییز آن از ویدئوهای جعلی برای عموم مردم دشوار است. هر کنشگر سیاسی میتواند مخالف خود را بیاعتبار کند یا با هدف پیشبرد برنامههای خود باعث یک افتضاح سیاسی شود.
[12]
آنچه واقعاً در انتخابات 2020 آمریکا رخ داد
درکل چهار دلیل وجود دارد که چرا در طی این دوره انتخاباتی آمریکا جعل عمیق سیاسی ظاهر نشد. دستکم در طول سال پیش از انتخابات، هزاران جعل عمیق منتشر شد که البته بیشتر آنها محتوای پورنوگرافیک داشتند و صدها مورد از آنها در محدوده بیخطر قرار میگرفتند؛ یعنی نه تنها تکنولوژی جعل عمیق ادامه یافت بلکه صدها نفر از سراسر جهان به تولید این نوع از محتوا پرداختند.
مداخلاتی از شبکههای اجتماعی و پلتفرمهای تکنولوژیک
شبکههای اجتماعی پس از انتقادات فراوان بهخاطر انفعالشان در انتخابات 2016 رویه خود را از 2018 به بعد تغییر دادند؛ آنها از یک موضع عموماً بیطرف به سمت یک موضع فعالانه، مداخلهگرانه و حتی نوعی جنجالی از سانسور رفتند. «اگر آنها از این فرصت استفاده نکنند - و اگر جعل عمیق به انتخابات سال آتی هجوم آورد و حجمی از اطلاعات گمراهکننده را از خود به جای گذارند، ممکن است کنگره بهدرستی مصونیت کلی این پلتفرمها را از بین ببرد و دادگاهها نسبت به قوانین قبلی خود در مورد آنها بازنگری کنند.»
[13]
برخی از مهمترین اقدامات شبکههای اجتماعی به قرار زیر است:
- فیسبوک در ژانویه 2020 اعلام کرد که محتواهایی که «به شیوههایی نامشخص و ناآشنا برای افراد عادی، ویرایش و ساخته و پرداخته شده است و احتمالاً موجب گمراهی افراد میشود» را حذف میکند.
[14] فیسبوک مدعی است که درحالحاضر هوش مصنوعی94.7 درصد گفتوگوهای تنفربرانگیز را کشف میکند و از پلتفرم خود حذف میکند.
[15]
- توییتر در فوریه 2020 اقدام وسیعتری کرد و اعلان داشت که «محتویات مصنوعی و دستکاریشدهای که مُضر است را حذف و به کاربران هشدار خواهد داد.»
[16]
در جستجوی راهحلهای تکنولوژیک برای مبارزه با جعل عمیق
شبکههای اجتماعی برای مقابله با جعل عمیق به راستیآزمایی
[17] متوسل شدهاند؛ اما حذف جعلهای عمیق مستلزم استفاده از ابزارهای هوش مصنوعی است. پژوهشها
[18] نشان دادهاند که افراد معمولی در شناسایی ویدئوهای ساختهشده با تکنولوژی جعل عمیق دشواری دارند.
هوانگ معتقد است که «عواملی مثل ضرورت اجتناب از نسبتدادن، زمان لازم برای آموزش یک مُدل یادگیری ماشینی و دسترسپذیری دادهها نحوه استفاده کنشگران از جعل عمیق را عملاً محدود میکند». بهعلاوه، دو
[19] و همکاران متوجه شدهاند که «اگرچه تلاشهای زیادی برای کشف جعلهای عمیق صورت گرفته است، اما اجرای آنها تا حدود زیادی مغفول بوده است».
ترجمه و تلخیص: حسین ولدخانی (دانشجوی دکتری جامعهشناسی دانشگاه علامه طباطبایی)
تهیه شده در گروه فرهنگی و اجتماعی پژوهشگاه فضای مجازی
لینک منبع
[1] https://www.nisos.com/company
[2] Understanding the illicit economy for synthetic media
[3] در تعریف ما جعل عمیق (
Deep Fake) یک محتوای ویدئویی، صوتی، متنی یا تصویری کاملاً یا نسبتاً جعلی است که با استفاده از هوش مصنوعی تولید شده است.
[4] Sprangler, T., ‘What will U.S. do to combat deepfakes? Michigan members of Congress want to
know’2019/12/24 [https://eu.freep.com/story/news/local/michigan/2019/12/24/deepfakesmichigan-
members-of-congress-address-threat/2679222001/]
[5] Panetta, F., Amer, P., and Harrell, D. F., ‘We made a realistic deepfake, and here’s why we’re
worried’, 2020/10/12 [https://www.bostonglobe.com/2020/10/12/opinion/july-we-releaseddeepfake-
mit-within-weeks-it-reached-nearly-million-people/]
[6] Fernandez, M., ‘Expert says detecting deepfakes almost impossible’, 2020/09/30
[https://www.axios.com/deepfakes-technology-misinformation-problem-71bb7f2b-5dc2-4fbd-
9b56-01ad430c1a4e.html]
[9] Katarya, R., and Lal, A., ‘A Study on Combating Emerging Threat of Deepfake Weaponization’,
2020/10 [https://ieeexplore.ieee.org/document/9243588]
[12] Dobber, T., Metoui, N., Trilling, D., Helberger, N., and de Vreese, C., ‘Do (Microtargeted)
Deepfakes Have Real Effects on Political Attitudes?’, 2020, The International Journal of
Press/Politics [https://doi.org/10.1177/1940161220944364]
[13] Citron, D. K., and Chesney, R., ‘Deep Fakes: A Looming Challenge for Privacy, Democracy, and
National Security’, 2019, 107 California Law Review 1753
[https://scholarship.law.bu.edu/faculty_scholarship/640]
[14] Hwang, T., ‘Deepfakes, A Grounded Threat Assessment’, 2020/07, Center for Security and
Emerging Technology [https://cset.georgetown.edu/research/deepfakes-a-grounded-threatassessment/]
[15] . Shead, S., ‘Facebook Claims A.I. Now Detects 94.7% of the Hate Speech That Gets Removed From
Its Platform’, 2020/11/19 [https://www.nbcdfw.com/news/business/money-report/facebookclaims-
a-i-now-detects-94-7-of-the-hate-speech-that-gets-removed-from-itsplatform/
2484885/]
[16] . Hwang, T., ‘Deepfakes, A Grounded Threat Assessment’, 2020/07, Center for Security and
Emerging Technology [https://cset.georgetown.edu/research/deepfakes-a-grounded-threatassessment/]
[18] . Ahmed (2020), Farid and Agarwal (Manke, 2019), and Thaw et al. (2020)