• ساخت اولین ابزار تشخیص جعل عمیق توسط وزارت دفاع آمریکا

      ساخت اولین ابزار تشخیص جعل عمیق توسط وزارت دفاع آمریکا

      ساخت اولین ابزار تشخیص جعل عمیق توسط وزارت دفاع آمریکا

      وزارت دفاع ایالات متحده آمریکا موفق به ساخت نخستین ابزار تشخیص جعل عمیق شده است.

      اولین ابزار فارنزیک (جرم شناسی) برای تشخیص اخبار جعلی با استفاده از هوش مصنوعی توسط وزارت دفاع آمریکا ساخته شد. از آن‌جایی‌که فناوری، ایجاد فیلم‌های جعلی برای ترویج اطلاعات نادرست و ایجاد مشکل برای مردم را بسیار آسان نموده است، کارشناسان فارنزیک برای تشخیص فیلم‌های ساختگی و دست‌کاری‌شده به‌دنبال یافتن روش‌هایی با استفاده از یادگیری ماشینی هستند.
      رایج‌ترین تکنیک برای تولید فیلم‌های جعلی استفاده از یادگیری ماشینی برای عوض کردن چهره یک شخص با چهره شخص دیگر است. چنین فیلم‌هایی که تحت عنوان جعل عمیق[1] شناخته می‌شوند، به سادگی ساخته شده و به صورت شگفت‌آوری واقعی به‌نظر می‌رسند. حتی با ترفندهای بیشتر ویرایشگران حرفه‌ای واقعی‌تر هم به نظر می‌رسند.
      ترفندهای ویدئویی شامل به‌کارگیری فنون یادگیری ماشینی است که مدل‌سازی مولد نامیده می‌شود. با کمک راه‌کارهای یادگیری ماشینی کامپیوتر قبل از تولید نمونه‌های جعلی براساس داده‌های واقعی آموزش می‌بیند. یکی از این روش‌های یادگیری ماشینی استفاده از دو شبکه عصبی تحت عنوان شبکه‌های رقابتی مولد[2] است، که این شبکه‌ها برای تولید محتوای جعلی واقعی‌تر با یگدیگر رقابت می‌کنند.
      ابزارهای تشخیص جعل عمیق که به صورت یک برنامه توسط آژانس پروژه‌های تحقیقاتی پیشرفته دفاعی[3] توسعه داده شده‌اند، Media Forensics نامیده می‌شوند. این برنامه‌ها برای خودکارسازی ابزارهای فارنزیک موجود ایجاد شده‌اند، اما اخیراً توجه این نوع برنامه‌ها به سمت محتوای جعلی ساخته شده با کمک هوش مصنوعی است. طبق گفته متیو تورک[4] اجراکننده برنامه Media Forensics، در تصاویر و فیلم‌های دست‌کاری‌شده با شبکه‌های عصبی رقابتی مولد نشانه‌های ظریفی برای تشخیص وجود تغییرات در فیلم یا تصویر قابل کشف است.
      سیوی لیو[5] استاد دانشگاه نیویورک تکنیک ساده و در عین حال قابل توجه‌ای را ارائه داده است. او حدود 50 فیلم جعلی را تولید کرد و برای تشخیص تغییرات روش‌های فارنزیک قدیمی را امتحان نمود. هرچند این روش‌ها قابل استفاده بودند اما چندان خوب نبودند. سرانجام، با بررسی محتویات جعلی گوناگون لیو متوجه شد چهره‌های جعلی ساخته شده گاهی اوقات چشمک می‌زنند و هنگام چشمک زدن حرکت چشم آن‌ها غیرطبیعی است. به این دلیل که در جعل عمیق از تصاویر ثابتی برای آموزش استفاده شده است که در آن تصاویر شخص با چشمان باز نشان داده شده است.
      سایر افراد در آژانس پروژه‌های تحقیقاتی پیشرفته دفاعی نیز به دنبال یافتن ترفندهای مشابهی از جمله: حرکات عجیب سر، رنگ چشم غیرطبیعی و غیره، برای تشخیص خودکار جعل‌های عمیق هستند. طبق گفته هانی فرید[6] کارشناس فارنزیک دیجیتال در دانشگاه دارتموث، کارشناسان به دنبال یافتن نشانه‌های فیزیولوژیکی هستند که در حال حاضر برای یادگیری و تقلید در جعل عمیق دشوار است.
      آژانس پروژه‌های تحقیقاتی پیشرفته دفاعی آزمون‌های بیشتری را انجام خواهد داد تا اطمینان یابد فناوری‌های توسعه قادر به ردیابی تکنیک‌های جدید هستند.
      رسیدن به ابزارهای فارنزیک نشانه شروع رقابت مبتنی‌بر هوش مصنوعی بین جاعلان فیلم و کارآگاهان دیجیتالی است. اما سیستم‌های مبتنی‌بر یادگیری ماشینی را می‌توان به گونه‌ای آموزش داد تا از ابزارهای فارنزیک سبقت بگیرند.
      طبق نظر لیو یک جاعل حرفه‌ای به راحتی می‌تواند ابزار چشمک زدن را با جمع‌آوری تصاویری که شخص در آن چشمک می‌زند، به‌دست آورد. او هم‌چنین می‌گوید تیم تحقیقاتی‌شان به تکنیک‌های بسیار مؤثری در مقابل جاعلان در این رابطه رسیده‌اند، اما فعلاً آن‌ها را مخفی نگه می‌دارد.

      لینک منبع


      [1] deepfake
      [2] GAN
      [3] DARPA
      [4] Mattew Turek
      [5] Siwei Lyu
      [6] Hany Farid
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، سعادت آباد، خیابان علامه شمالی، کوچه هجدهم غربی، پلاک 17
کد پستی: 1997987629
تلفن: 22073031
پست الکترونیک: info@csri.ac.ir