ظهور محتوای جعلعمیق که تشخیص آن برای نه تنها ماشینها و بلکه انسانها نیز دشوار است، چالشهایی را برای جوامع دموکراتیک به همراه دارد. برای پاسخگویی موثر به این چالشها، سیاستگذاران در عین حالی که میبایست پیشبینیهایی در رابطه با روشهای پیشگیری از سواستفادههای احتمالی از این فناوری داشته باشند، باید درک صحیحی از چگونگی آشکارسازی محتواهای جعلعمیق داشته باشند.
ظهور محتوای جعلعمیق که تشخیص آن برای نه تنها ماشینها و بلکه انسانها نیز دشوار است، چالشهایی را برای جوامع دموکراتیک به همراه دارد. برای پاسخگویی موثر به این چالشها، سیاستگذاران در عین حالی که میبایست پیشبینیهایی در رابطه با روشهای پیشگیری از سواستفادههای احتمالی از این فناوری داشته باشند، باید درک صحیحی از چگونگی آشکارسازی محتواهای جعلعمیق داشته باشند
[i].
اکنون جعلهای عمیق در بین مردم متداولتر از هر زمان دیگریست و ساخت آنها دیگر نیاز به تخصص ویژهای ندارد. افبیآی در این رابطه هشدار جدی داده است و میگوید:
«قطعاً در 12 تا 18 ماه آینده عوامل تخریبگر از محتوای تقلبی برای عملیاتهای سایبری و نفوذ در سطح بینالمللی به صورت گستردهای استفاده میکنند.»
[ii]
محتوای تقلبی به هرگونه محتوای دستکاری شده یا تولید شده در ویدیو، عکس، متن یا صدا گفته میشود.
همچنین این محتواها شامل جعلهای عمیق
[1] هستند که از هوش مصنوعی برای جابجا کردن تصویر یک شخص با شخصی دیگر استفاده میکنند.
افبیآی در بیانیهای که دهم مارس صادر کرد اتهاماتی را نیز به برخی کشورها چون روسیه و چین وارد کرده است: «عوامل روسی، چینی و چینی زبان از تصاویر پروفایل تقلبی استفاده میکنند که از شبکههای مولد تخاصمی
[2] گرفته شدهاند.»
همچنین این سازمان به افزایش تعداد روزنامهنگاران جعلی و مقالاتی که به صورتی آنلاین منتشر میشوند اشاره کرده است. از آن جایی که این روزنامهنگاران حضور پررنگی در فضای مجازی داشتند، کلاهبرداری آنان را میتوان با استفاده از واقعیتسنجی پیدا کرد.
اکنون جعلهای عمیق در فرهنگ عامه وجود دارند و ساخت آنها راحتتر از هر زمان دیگری است. آنها به میمهای اینترنتی
[3] تبدیل شدهاند اما شامل اطلاعات نادرست و توهینآمیز به ویژه در فضای سیاسی کشورها میتوانند اثرات مخرب خودشان را نشان دهند.
شومان گوسماجودر
[4]، ابرکلاهبردار سابق گوگل سال گذشته در مصاحبه با سایت اینسایدر
[5] گفته است که احتمالاً جعلهای عمیق گسترش بیشتری مییابند و در آینده نزدیک با جعلهای عمیق کاملاً واقعی روبهرو خواهیم شد.
افبیآی همچنین اعلام کرده است که آنها در اواخر سال 2019 چندین کمپین که محتوای تقلبی نشر میدادهاند را شناسایی کردهاند و به نظر میرسد که تعداد آنها در حال افزایش است.
چگونه میتوان جعل عمیق را تشخیص داد
افبیآی در بیانیه خود نحوه تشخیص جعلهای عمیق را نیز به طور مفصل شرح داده است. فاصله بیش از حد بین چشمهای فرد و همچنین حرکات سر و بالاتنه و هماهنگی بین حرکات صورت و لب از سرنخهای اصلی هستند.
محققان دانشگاه بوفالو نیز وسیلهای را برای تشخیص جعلهای عمیق تولید کردهاند و ادعا میکنند که تا 94 درصد موثر است و در تصاویر غیرپرتره تاثیر کمتری دارد.
افبیآی در گزارش خود مفصل توضیح داده است که افراد چگونه میتوانند از خودشان در برابر جرایم سایبری محافظت کنند؛ به ویژه اینکه آنان نباید تصور کنند که پروفایل اشخاص در محیط آنلاین انطباق کامل با شخص مربوطه دارد. همچنین آنها گفتند که کاربران هنگام ارائه اطلاعات محرمانه اینترنتی یا تلفنی باید در منابع اطلاعاتی صحتسنجی متعددی جستجو کرده و مراقب باشند.
جعل عمیق در ابتدا به عنوان یک ابزار سرگرم کننده ظهور کرد و این امکان را به وجود آورد که با بهرهگیری از فناوری هوش مصنوعی کلونهایی ایجاد شود که دقیقاً مانند الگوهایشان به نظر می رسند ، صحبت می کنند و عمل می کنند. با این حال ، امروزه پتانسیل سواستفاده از این ابزار در حال افزایش است که به موجب آن شخص یک کلون از چهره ای شناخته شده را ایجاد کرده و سخنان او را دستکاری می کند. در حال حاضر پژوهشهای بسیاری در رابطه با روشهای تشخیص این محتواها در مجامع پژوهشی مطرح شده است
[iii]. اما با توجه به وجود برخی راهحلهای پیشگیرانه قانونی به نظر میرسد بتوان در برهه حساسی که کشور در آن قرار دارد عاملیت موثرتری را در جلوگیری از اثرات مخرب این فناوری داشت.
تهیه شده در گروه علوم و فناوریهای نوین پژوهشگاه فضای مجازی
[2] generative adversarial networks
[i] Pan, D., Sun, L., Wang, R., Zhang, X., & Sinnott, R. O. (2020, December). Deepfake Detection through Deep Learning. In
2020 IEEE/ACM International Conference on Big Data Computing, Applications and Technologies (BDCAT) (pp. 134-143). IEEE.
[iii] Pan, D., Sun, L., Wang, R., Zhang, X., & Sinnott, R. O. (2020, December). Deepfake Detection through Deep Learning. In
2020 IEEE/ACM International Conference on Big Data Computing, Applications and Technologies (BDCAT) (pp. 134-143). IEEE.