اولین ابزار فارنزیک (جرم شناسی) برای تشخیص اخبار جعلی با استفاده از هوش مصنوعی توسط وزارت دفاع آمریکا ساخته شد. از آنجاییکه فناوری، ایجاد فیلمهای جعلی برای ترویج اطلاعات نادرست و ایجاد مشکل برای مردم را بسیار آسان نموده است، کارشناسان فارنزیک برای تشخیص فیلمهای ساختگی و دستکاریشده بهدنبال یافتن روشهایی با استفاده از یادگیری ماشینی هستند.
رایجترین تکنیک برای تولید فیلمهای جعلی استفاده از یادگیری ماشینی برای عوض کردن چهره یک شخص با چهره شخص دیگر است. چنین فیلمهایی که تحت عنوان جعل عمیق
[1] شناخته میشوند، به سادگی ساخته شده و به صورت شگفتآوری واقعی بهنظر میرسند. حتی با ترفندهای بیشتر ویرایشگران حرفهای واقعیتر هم به نظر میرسند.
ترفندهای ویدئویی شامل بهکارگیری فنون یادگیری ماشینی است که مدلسازی مولد نامیده میشود. با کمک راهکارهای یادگیری ماشینی کامپیوتر قبل از تولید نمونههای جعلی براساس دادههای واقعی آموزش میبیند. یکی از این روشهای یادگیری ماشینی استفاده از دو شبکه عصبی تحت عنوان شبکههای رقابتی مولد
[2] است، که این شبکهها برای تولید محتوای جعلی واقعیتر با یگدیگر رقابت میکنند.
ابزارهای تشخیص جعل عمیق که به صورت یک برنامه توسط آژانس پروژههای تحقیقاتی پیشرفته دفاعی
[3] توسعه داده شدهاند،
Media Forensics نامیده میشوند. این برنامهها برای خودکارسازی ابزارهای فارنزیک موجود ایجاد شدهاند، اما اخیراً توجه این نوع برنامهها به سمت محتوای جعلی ساخته شده با کمک هوش مصنوعی است. طبق گفته متیو تورک
[4] اجراکننده برنامه
Media Forensics، در تصاویر و فیلمهای دستکاریشده با شبکههای عصبی رقابتی مولد نشانههای ظریفی برای تشخیص وجود تغییرات در فیلم یا تصویر قابل کشف است.
سیوی لیو
[5] استاد دانشگاه نیویورک تکنیک ساده و در عین حال قابل توجهای را ارائه داده است. او حدود 50 فیلم جعلی را تولید کرد و برای تشخیص تغییرات روشهای فارنزیک قدیمی را امتحان نمود. هرچند این روشها قابل استفاده بودند اما چندان خوب نبودند. سرانجام، با بررسی محتویات جعلی گوناگون لیو متوجه شد چهرههای جعلی ساخته شده گاهی اوقات چشمک میزنند و هنگام چشمک زدن حرکت چشم آنها غیرطبیعی است. به این دلیل که در جعل عمیق از تصاویر ثابتی برای آموزش استفاده شده است که در آن تصاویر شخص با چشمان باز نشان داده شده است.
سایر افراد در آژانس پروژههای تحقیقاتی پیشرفته دفاعی نیز به دنبال یافتن ترفندهای مشابهی از جمله: حرکات عجیب سر، رنگ چشم غیرطبیعی و غیره، برای تشخیص خودکار جعلهای عمیق هستند. طبق گفته هانی فرید
[6] کارشناس فارنزیک دیجیتال در دانشگاه دارتموث، کارشناسان به دنبال یافتن نشانههای فیزیولوژیکی هستند که در حال حاضر برای یادگیری و تقلید در جعل عمیق دشوار است.
آژانس پروژههای تحقیقاتی پیشرفته دفاعی آزمونهای بیشتری را انجام خواهد داد تا اطمینان یابد فناوریهای توسعه قادر به ردیابی تکنیکهای جدید هستند.
رسیدن به ابزارهای فارنزیک نشانه شروع رقابت مبتنیبر هوش مصنوعی بین جاعلان فیلم و کارآگاهان دیجیتالی است. اما سیستمهای مبتنیبر یادگیری ماشینی را میتوان به گونهای آموزش داد تا از ابزارهای فارنزیک سبقت بگیرند.
طبق نظر لیو یک جاعل حرفهای به راحتی میتواند ابزار چشمک زدن را با جمعآوری تصاویری که شخص در آن چشمک میزند، بهدست آورد. او همچنین میگوید تیم تحقیقاتیشان به تکنیکهای بسیار مؤثری در مقابل جاعلان در این رابطه رسیدهاند، اما فعلاً آنها را مخفی نگه میدارد.
لینک منبع