• رای نوشت/ جعل‌ عمیق و انتخابات 2020 آمریکا (بخش نخست)

      رای نوشت/ جعل‌ عمیق و انتخابات 2020 آمریکا (بخش نخست)

      رای نوشت/ جعل‌ عمیق و انتخابات 2020 آمریکا (بخش نخست)

      سناتور مارکو روبیو: «در گذشته برای تهدید آمریکا نیاز به 10 ناو هواپیمابر، سلاح هسته‌‌ای و موشک‌های دوربُرد بود؛ اما امروزه تنها نیاز به تولید ویدئوهای جعلی واقع‌نمایی است که انتخابات ما را تضعیف کند. مسئله‌ای که کشورها را در بحرانی اساسی فرو می‌برد و عمیقاً تضعیف می‌کند.»

      یک‌ سال پیش از انتخابات 2020 آمریکا سایت نیسوس[1] گزارشی (فهم اقتصاد قاچاق برای رسانه‌های مصنوعی)[2] منتشر کرد که می‌گفت «در کوتاه مدت (انتخابات پیش رو)، پیش‌بینی نمی‌شود که از جعل‌ عمیق[3] گسترده در کمپین‌های مربوط به اطلاعات گمراه‌کننده استفاده شود». با نگاه به گذشته معلوم می‌شود که حق با کارشناسان نیسوس بود، اما این نظر در اقلیت بود. بسیاری از سیاست‌مداران و مؤسسات نسبت به این خطر هشدار می‌دادند: «سناریویی را مجسم کنید که در آستانه انتخابات سال بعد، نامزد دموکرات در ویدئویی ظاهر می‌شود و از دونالد ترامپ حمایت می‌کند. اکنون، این سناریو را برعکس تصور کنید.»[4]

      پتانسیل بالای جعل عمیق برای اطلاعات گمراه‌کننده از مدت‌ها قبل مشاهده شده بود. در یک آزمون آنلاین ، 49 درصد از افرادی که از وبسایت برگزار کننده آزمون، بازدید کرده‌اند، گفته‌اند که به‌غلط معتقدند که چهره ساختگی نیکسون واقعی بوده و 65 درصد اعتقاد داشتند که صدای وی واقعی است.[5]

      متخصصان می‌گویند که تشخیص جعل عمیق تقریباً غیرممکن است.[6] کاتاریا[7] و لال[8] می‌گویند که «وجود چنین نرم‌افزار منبع باز و دسترس‌پذیری آن‌ها در بازار برای جعل و ترویج اطلاعات غلط باعث ضرورت توجه به تشخیص و حذف محتواهای این‌چنینی شده است»[9]. در زیر فهرستی از ظرفیت‌های جعل عمیق را می‌بینیم:
      - سناتور مارکو روبیو[10]:

      «در گذشته برای تهدید آمریکا نیاز به 10 ناو هواپیمابر، سلاح هسته‌‌ای و موشک‌های دوربُرد بود؛ اما امروزه تنها نیاز به تولید ویدئوهای جعلی واقع‌نمایی است که انتخابات ما را تضعیف کند. مسئله‌ای که کشورها را در بحرانی اساسی فرو می‌برد و عمیقاً تضعیف می‌کند.»

      - سناتور جمهوری‌خواه بن ساس[11] که لایحه‌ای را برای اعلام جرم علیه جعل عمیق مطرح کرد، در سال 2019 هشدار داد که این تکنولوژی می‌تواند حیات آدمی و بازارهای مالی را به تباهی بکشاند و حتی موجب درگیری‌های نظامی در سراسر جهان شود.

      - اطلاعات گمراه‌کننده ناشی از جعل عمیق می‌تواند چالشی برای انتخابات باشد، زیرا تمییز آن از ویدئوهای جعلی برای عموم مردم دشوار است. هر کنشگر سیاسی می‌تواند مخالف خود را بی‌اعتبار کند یا با هدف پیشبرد برنامه‌های خود باعث یک افتضاح سیاسی شود.[12]

      آنچه واقعاً در انتخابات 2020 آمریکا رخ داد

      درکل چهار دلیل وجود دارد که چرا در طی این دوره انتخاباتی آمریکا جعل عمیق سیاسی ظاهر نشد. دست‌کم در طول سال پیش از انتخابات، هزاران جعل عمیق منتشر شد که البته بیشتر آنها محتوای پورنوگرافیک داشتند و صدها مورد از آنها در محدوده بی‌خطر قرار می‌گرفتند؛ یعنی نه تنها تکنولوژی جعل عمیق ادامه یافت بلکه صدها نفر از سراسر جهان به تولید این نوع از محتوا پرداختند.

      مداخلاتی از شبکه‌های اجتماعی و پلتفرم‌های تکنولوژیک

      شبکه‌های اجتماعی پس از انتقادات فراوان به‌خاطر انفعالشان در انتخابات 2016 رویه خود را از 2018 به بعد تغییر دادند؛ آنها از یک موضع عموماً بی‌طرف به سمت یک موضع فعالانه، مداخله‌گرانه و حتی نوعی جنجالی از سانسور رفتند. «اگر آنها از این فرصت استفاده نکنند - و اگر جعل عمیق به انتخابات سال آتی هجوم آورد و حجمی از اطلاعات گمراه‌کننده را از خود به جای گذارند، ممکن است کنگره به‌درستی مصونیت کلی این پلتفرم‌ها را از بین ببرد و دادگاه‌ها نسبت به قوانین قبلی خود در مورد آنها بازنگری کنند.»[13]

      برخی از مهم‌ترین اقدامات شبکه‌های اجتماعی به قرار زیر است:

      - فیسبوک در ژانویه 2020 اعلام کرد که محتواهایی که «به شیوه‌هایی نامشخص و ناآشنا برای افراد عادی، ویرایش و ساخته و پرداخته شده است و احتمالاً موجب گمراهی افراد می‌شود» را حذف می‌کند.[14] فیسبوک مدعی است که درحال‌حاضر هوش مصنوعی94.7 درصد گفت‌وگوهای تنفربرانگیز را کشف می‌کند و از پلتفرم خود حذف می‌کند.[15]

      - توییتر در فوریه 2020 اقدام وسیع‌تری کرد و اعلان داشت که «محتویات مصنوعی و دست‌کاری‌شده‌ای که مُضر است را حذف و به کاربران هشدار خواهد داد.»[16]

      در جستجوی راه‌حل‌های تکنولوژیک برای مبارزه با جعل عمیق

      شبکه‌های اجتماعی برای مقابله با جعل عمیق به راستی‌آزمایی[17] متوسل شده‌اند؛ اما حذف جعل‌های عمیق مستلزم استفاده از ابزارهای هوش مصنوعی است. پژوهش‌ها[18] نشان داده‌اند که افراد معمولی در شناسایی ویدئوهای ساخته‌شده با تکنولوژی جعل عمیق دشواری دارند.

      هوانگ معتقد است که «عواملی مثل ضرورت اجتناب از نسبت‌دادن، زمان لازم برای آموزش یک مُدل یادگیری ماشینی و دسترس‌پذیری‌ داده‌ها نحوه استفاده کنشگران از جعل‌ عمیق را عملاً محدود می‌کند». به‌علاوه، دو[19] و همکاران متوجه شده‌اند که «اگرچه تلاش‌های زیادی برای کشف جعل‌های عمیق صورت گرفته است، اما اجرای آنها تا حدود زیادی مغفول بوده است».

      ترجمه و تلخیص: حسین ولدخانی (دانشجوی دکتری جامعه‌شناسی دانشگاه علامه طباطبایی)
      تهیه شده در گروه فرهنگی و اجتماعی پژوهشگاه فضای مجازی

      لینک منبع



      [1] https://www.nisos.com/company
      [2] Understanding the illicit economy for synthetic media
      [3] در تعریف ما جعل عمیق (Deep Fake) یک محتوای ویدئویی، صوتی، متنی یا تصویری کاملاً یا نسبتاً جعلی است که با استفاده از هوش مصنوعی تولید شده است.
      [4] Sprangler, T., ‘What will U.S. do to combat deepfakes? Michigan members of Congress want to
      know’2019/12/24 [https://eu.freep.com/story/news/local/michigan/2019/12/24/deepfakesmichigan-
      members-of-congress-address-threat/2679222001/]
      [5] Panetta, F., Amer, P., and Harrell, D. F., ‘We made a realistic deepfake, and here’s why we’re
      worried’, 2020/10/12 [https://www.bostonglobe.com/2020/10/12/opinion/july-we-releaseddeepfake-
      mit-within-weeks-it-reached-nearly-million-people/]
      [6] Fernandez, M., ‘Expert says detecting deepfakes almost impossible’, 2020/09/30
      [https://www.axios.com/deepfakes-technology-misinformation-problem-71bb7f2b-5dc2-4fbd-
      9b56-01ad430c1a4e.html]
      [7] Katarya, R
      [8] Lal, A
      [9] Katarya, R., and Lal, A., ‘A Study on Combating Emerging Threat of Deepfake Weaponization’,
      2020/10 [https://ieeexplore.ieee.org/document/9243588]
      [10] Marco Rubio
      [11] Ben Sasse
      [12] Dobber, T., Metoui, N., Trilling, D., Helberger, N., and de Vreese, C., ‘Do (Microtargeted)
      Deepfakes Have Real Effects on Political Attitudes?’, 2020, The International Journal of
      Press/Politics [https://doi.org/10.1177/1940161220944364]
      [13] Citron, D. K., and Chesney, R., ‘Deep Fakes: A Looming Challenge for Privacy, Democracy, and
      National Security’, 2019, 107 California Law Review 1753
      [https://scholarship.law.bu.edu/faculty_scholarship/640]
      [14] Hwang, T., ‘Deepfakes, A Grounded Threat Assessment’, 2020/07, Center for Security and
      Emerging Technology [https://cset.georgetown.edu/research/deepfakes-a-grounded-threatassessment/]
      [15] . Shead, S., ‘Facebook Claims A.I. Now Detects 94.7% of the Hate Speech That Gets Removed From
      Its Platform’, 2020/11/19 [https://www.nbcdfw.com/news/business/money-report/facebookclaims-
      a-i-now-detects-94-7-of-the-hate-speech-that-gets-removed-from-itsplatform/
      2484885/]
      [16] . Hwang, T., ‘Deepfakes, A Grounded Threat Assessment’, 2020/07, Center for Security and
      Emerging Technology [https://cset.georgetown.edu/research/deepfakes-a-grounded-threatassessment/]
      [17] fact-checking
      [18] . Ahmed (2020), Farid and Agarwal (Manke, 2019), and Thaw et al. (2020)
      [19] . Du et al. (2020)
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1997987629
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir