همه چیز درباره نرم افزار دیپ فیک

[ad id='39844']

 

[quote]دیپ فیک یا جعل عمیق، یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. جعل عمیق تصاویر و فیلم‌های موجود را بر روی تصاویر یا فیلم‌های منبع قرار می‌دهد و از یک تکنیک یادگیری ماشین به نام «شبکه مولد تخاصمی»  استفاده می‌کند ویدیوی جعلی، ترکیب فیلم‌های موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان می‌دهد که هرگز در واقعیت اتفاق نیفتاده است.[/quote]

دیپ‌فیک نام یک تکنیک نرم‌افزاری مبتنی‌بر هوش‌مصنوعی است که در محتوای صوتی و تصویری دست می‌برد و آن‌ را به‌دلخواه دگرگون می‌سازد؛ بنابراین نتیجه‌ی نهایی که به‌دست می‌آید، چیزی کاملا متفاوت از حقیقت خواهد بود. درواقع نام این تکنیک نیز به‌درستی عملکرد آن را آشکار می‌سازد؛ دیپ‌فیک، ترکیبی از یادگیری عمیق (Deep Learning) و جعل (Fake) است.

شاید عجیب باشد؛ اما کارگردانان سینما یکی از قدیمی‌ترین استفاده‌کنندگان از این فناوری بوده‌اند. سِر پیتر کوشینگ، بازیگر انگلیسی که نقش «گرند ماف تارکین» را تا پیش‌از مرگش در سال ۱۹۹۴ در مجموعه فیلم‌های جنگ ستارگان بازی می‌کرد، باری دیگر در فیلم «روگ وان: داستانی از جنگ ستارگان» که مربوط‌به سال ۲۰۱۶ می‌شود، ظاهر شد. در همین فیلم با استفاده از تکنیک مشابه، شخصیت «پرنسس لیا» هم بازسازی و جوان شد. در نمونه‌ای دیگر، ستاره‌ی فیلم «سریع و خشن»، یعنی پاول واکر را داریم که پیش‌از تکمیل فیلم‌برداری هفتمین قسمت از این سری در یک تصادف رانندگی درگذشت؛ اما به‌لطف دیپ‌فیک، هنوز شاهد هنرنمایی این بازیگر سری فیلم‌های سریع‌ و خشن هستیم.

درواقع این فناوری نیز برای ایجاد محتوای صوتی و تصویری متقاعد‌کننده و در‌عین‌حال غیرواقعی ساخته شده؛ یک فناوری که به‌سرعت در‌ حال‌ رشد و بهبود است و انتظار می‌رود روز‌به‌روز استفاده از آن گسترده‌تر شود. برنامه‌های ویرایش تصویر نظیر فتوشاپ، سال‌ها کاری مشابه را ازطریق جعل‌کردن تصاویر انجام می‌دهند؛ اما چیزی که اکنون با آن رو‌به‌رو هستیم، مبحثی کاملاً متفاوت و نگران‌کننده‌تر از جعل عکس یک نفر در فتوشاپ است.

با پیشرفت خیره‌کننده هوش‌مصنوعی طی سال‌های اخیر، بسیاری از کار‌هایی که در گذشته سخت و ناممکن به‌ نظر می‌رسیدند، ممکن شده‌اند. پیش‌تر، کمتر کسی فکر می‌کرد که روزی بتوان محتوای یک ویدئو را به‌طور‌ کلی و بدون‌ دخالت مستقیم انسان تغییر داد؛ اما اکنون دیپ‌فیک ثابت کرده که چنین باوری در دنیای امروز جایی ندارد و به‌راحتی می‌توان ویدئو‌هایی تولید کرد که به‌سبب واقع‌گرایانه‌بودن، بتوان میان حقیقت و دروغ آن‌ها تمایزی قائل شد.

همان‌طور که بالاتر اشاره کردیم، دیپ‌فیک یک تکنیک مبتنی‌بر هوش‌مصنوعی است؛ بنابراین نیازی به‌ دخالت مستقیم انسان ندارد؛ از‌این‌رو، هرکسی از‌طریق دیپ‌فیک می‌‌تواند ویدئویی جعلی و در‌عین‌حال واقع‌گرایانه درست کند.

یکی‌ از محبوب‌ترین اهداف دیپ‌فیک درطول دو‌ سال گذشته، دونالد ترامپ، رئیس جمهور ایالات متحده آمریکا بوده است؛ کسی که داده‌های صوتی و تصویری بسیاری از او در اینترنت وجود دارد. حال هر کس که به فناوری دیپ‌فیک دسترسی داشته باشد، به‌راحتی قادر به‌ ساخت ویدئویی خواهد بود که دونالد ترامپ را در‌ حال‌ انجام کاری یا صحبت‌کردن درباره‌ی کاری غیرمعمول نشان می‌دهد.

دیپ‌فیک چگونه ساخته می‌شود؟

چندین راه برای ساخت ویدئو‌های دیپ‌فیک وجود دارد؛ اما در تمام این راه‌ها، شما باید مقدار زیادی از داده‌ را به مدل‌های یادگیری ماشین تغذیه کرد تا از‌ این‌ طریق محتوای جعلی تولید شود. واقع‌گرایانه‌ترین نمونه‌های ساخته‌شده، حجم عظیمی از داده‌های صوتی، تصویری و ویدئویی‌ را طلب می‌کنند.

شاید برای‌تان عجیب باشد اما دیپ‌فیک تنها در حوزه‌های بالا استفاده نمی‌شود و اپلکیشنی مانند اسنپ‌چت نیز برای اعمال فیلتر‌های مبتنی‌بر چهره از چنین فناوری بهره می‌برد. جلوتر که برویم، حتی اپلیکیشن‌های قوی‌تری در این زمینه وجود دارند؛ اپلیکیشنی مانند FakeApp که توسط توسعه‌دهنده‌ای ناشناس ساخته شده و با استفاده از نرم‌افزار‌های متن‌باز گوگل، به کاربران اجازه می‌دهد تا چهره‌ی خود را به‌صورت واقع‌گرایانه‌ای با دیگران جا‌به‌جا کنند؛ آن‌ هم بدون‌ اینکه دستکاری‌شدن ویدئو مشخص باشد.

احتمالاً فکر می‌کنید که چنین کاری نیازمند تبحر و مهارت بسیاری در علوم‌های کامپیوتری است؛ اما حتی افرادی که در حد انجام کارهای روزمره با کامپیوتر آشنایی دارند، می‌توانند به‌راحتی شیوه‌ی کارکرد دیپ‌فیک را یاد بگیرند و از آن برای اهداف خود استفاده کنند.

احتمالاً اولین آشنایی بسیاری از ما با ویدئو‌های دیپ‌فیک، همان سخنرانی دروغین باراک اوباما، رئیس جمهور پیشین آمریکا بوده است. با‌این‌حال، اگرچه آن ویدئو یکی از اولین نمونه‌ها بوده؛ اما قطعاً آخرین مورد نبوده است.

طی هفته‌های اخیر، ویدئو‌های دیپ‌فیک به‌دلیل گسترش ناگهانی‌شان به پدیده‌ای ترسناک تبدیل شده‌اند. در یک نمونه از این ویدئو‌ها، مارک زاکربرگ، مدیرعامل فیسبوک را مشاهده می‌کنیم که با صدایی ربات‌گونه، جمله‌ی «هرکسی‌که داده‌ها را کنترل می‌کند، آینده را کنترل می‌کند» را بر زبان می‌آورد. در ادامه می‌توانید دو نمونه از این ویدئو‌ها را تماشا کنید.

در ویدئو نخست، جان اسنو، یکی از شخصیت‌های محوری سریال «بازی تاج و تخت» را مشاهده می‌کنیم که در صحنه‌ای از فیلم، بابت تمام اشتباهاتی که این سریال در طول فصل هشتم انجام داده، از طرفداران عذرخواهی می‌کند. اون فیلم‌نامه فصل هشت را حاصل کاری ۶روزه عنوان می‌کند و درآخر از همه می‌خواهد تا برای فراموشی این فصل، فیلم‌نامه‌ی آن را در آتش بسوزانند. اگرچه این ویدئو نسبت به‌ دیگر نمونه‌های دیپ‌فیک از کیفیت پایین‌تری برخوردار است؛ اما قطعاً با پیشرفت این فناوری می‌توان آینده‌ای را متصور شد که هرکس طبق علایق خود، دیالوگ موردنظرش را برای صحنه‌های مختلف فیلم‌ درنظر بگیرد.

ویدئوی بعدی که کیفیت بسیار بالاتری دارد، بیل هیدر (Bill Hader) را در‌ حال گفت‌و‌گو نشان می‌دهد؛ اما نکته مهم درباره این ویدئو، تغییر چهره ناگهانی وی به چهره آرنولد شوارتزینگر است. این اتفاق به‌قدری طبیعی اتفاق می‌افتد که گویی چنین رخدادی در دنیای حقیق رخ می‌دهد.

ادوارد دلپ، مدیر بخش پردازش تصویر و ویدئو در آزمایشگاه دانشگاه پوردو، سرعت و سهولت ساخت ویدئو‌های دیپ‌فیک را برای جوامع امروزی یک هشدار جدی می‌داند. وی یکی از چندین پژوهشگری است که روی توسعه‌ی الگوریتمی برای تشخیص ویدئو‌های دیپ‌فیک و جلوگیری از نشر گسترده‌ی آن‌ها در فضای اینترنت کار می‌کند؛ پروژه‌ای که توسط دولت آمریکا برای مقابله با نشر اکاذیب راه‌اندازی شده است.

در سال ۲۰۱۷ پورنوگرافی توسط جعل عمیق در اینترنت و به ویژه در ردیت، نمایان شد و سپس سایت‌هایی مثل ردیت، توئیتر و پورن‌هاب آن را ممنوع کردند.[۵][۶][۷] در پاییز ۲۰۱۷ یک کاربر ناشناس ردیت تحت نام مستعار “Deepfakes” چندین فیلم پورن را در اینترنت منتشر کرد. اولین فیلمی که جلب توجه کرد، جعل عمیقی برای دیزی ریدلی بود. این فیلم یکی از شناخته شده‌ترین فیلم‌های جعل عمیق و بخش اصلی چندین مقاله بود. جعل عمیق همچنین بازیگر فیلم زن شگفت‌انگیز، گل گدوت، را در حال داشتن رابطه جنسی با برادر نانتی اش، به جای اما واتسون، کیتی پری، تیلور سوئیفت یا اسکارلت جوهانسون شبیه‌سازی کرد. مدتی بعد نادرستی این صحنه‌های غیر واقعی -که توسط هوش مصنوعی ایجاد شده بودند- افشا شد.

با گذشت زمان، انجمن Reddit بسیاری از اشکالات را در فیلم‌های جعلی برطرف کرد و این موضوع باعث شد که تشخیص محتوای تقلبی از اصلی سخت شود. عکس‌ها و فیلم‌های غیر پورنوگرافیک بازیگران، که به صورت آنلاین به راحتی در دسترس هستند، به عنوان داده‌های آموزشی در نرم‌افزار استفاده شد. پدیده جعل عمیق برای اولین بار در دسامبر ۲۰۱۷ در بخش فنی و علمی مجله Vice گزارش و در نهایت به صورت گسترده در سایر رسانه‌ها نیز منتشر شد.

در دسامبر ۲۰۱۸، اسکارلت جوهانسون، به عنوان شخص تکرار شونده در جعل عمیق، به‌طور عمومی در مورد موضوعی در روزنامه The Washington Post صحبت کرد. او در یک بیانیه آماده، در مورد این پدیده ابراز نگرانی کرد و گفت اینترنت، کرمچاله ای عظیم از تاریکی است که خودش را می‌خورد. با این حال، او اظهار کرد که برای حذف هیچ‌یک از جعل عمیق‌هایش تلاشی نمی‌کند چون معتقد است که آن‌ها بر روی تصویر عمومی او تأثیری نمی‌گذارند و هم چنین وجود قوانین مختلف در کشورهای مختلف و ماهیت فرهنگ اینترنت هر گونه تلاش برای حذف جعل عمیق را تبدیل به حرکتی شکست خورده می‌کند؛ او معتقد است که تا زمانی که افراد مشهور مانند خودش توسط شهرتشان محافظت می‌شوند، جعل عمیق تهدیدی جدی برای زنان برجسته است زیرا ممکن است آن‌ها با فریب خوردن در پورنوگرافی ناخواسته یا پورن انتقامی به شهرت خود صدمه بزنند.[۱۰]

در انگلستان تولیدکنندگان مواد جعل عمیق ممکن است برای آزار و شکنجه تحت پیگرد قانونی قرار گیرند اما درخواست‌هایی برای تبدیل جعل عمیق به یک جرم ویژه وجود دارد؛ در ایالات متحده، جایی که اتهاماتی مانند سرقت هویت، کمین اینترنتی و پورن انتقامی مورد انتقاد قرار گرفته شده‌است، مفهوم یک قانون جامع تر نیز مورد استفاده قرار گرفته‌است. افراد مشهور هدف اصلی چنین فیلم‌های جعلی جنسی هستند، اما برخی دیگر نیز تحت تأثیر قرار می‌گیرند.

سیاست

جعل عمیق برای بد جلوه دادن سیاستمداران مشهور در پورتال‌های ویدیویی یا چت روم‌ها استفاده می‌شود. برای مثال، چهرهٔ رئیس‌جمهور آرژانتین مائوریسیو ماکری با چهرهٔ آدولف هیتلر و چهرهٔ آنجلا مرکل با دونالد ترامپ جایگزین شد. در آوریل ۲۰۱۸، جردن پیل و جونا پرتی جعل عمیقی درست کردند که در آن از باراک اوباما به عنوان یک آگهی خدمات عمومی دربارهٔ خطر جعل عمیق استفاده شده بود. در ماه ژانویه سال ۲۰۱۹، KCPQ جعل عمیقی از ترامپ، در طول سخنرانی اش منتشر کرد که در حال تمسخر ظاهر و رنگ پوستش بود.

نرم‌افزار جعل عمیق

در ژانویه ۲۰۱۸ یک برنامه دسکتاپ به نام FakeApp راه اندازی شد. این برنامه به کاربران اجازه می‌دهد تا به آسانی فیلم‌ها را با چهره‌هایی مختلف ایجاد کرده و به اشتراک بگذارند. این برنامه از یک شبکه عصبی مصنوعی، قدرت پردازنده گرافیکی و سه تا چهار گیگابایت فضای ذخیره‌سازی برای تولید ویدیو جعلی استفاده می‌کند. برای اطلاعات دقیق، برنامه نیاز به مقدار زیادی مواد بصری از فرد نیاز دارد تا بفهمد که کدام جنبه‌های تصویر، با استفاده از الگوریتم یادگیری عمیق و توالی ویدئوها و عکس‌ها، باید تغییر کند.

این نرم‌افزار از فریم ورک تنسورفلو گوگل استفاده می‌کند که برای برنامه DeepDream هم مورد استفاده قرار گرفته بود. در اوت ۲۰۱۸، محققان دانشگاه کالیفرنیا برکلی مقاله ای را برای معرفی یک برنامه رقص جعلی منتشر کردند که می‌تواند با استفاده از هوش مصنوعی یک کودک را با یک رقصنده متخصص جایگزین کند.

جعل عمیق در داستان

پدیده جعل عمیق و پورنوگرافی افراد مشهور در رمان Epiphany Jones توسط مایکل گروثوس مورد بررسی قرار گرفته‌است. این رمان یک تریلر ادبی، طنز اجتماعی و کمدی تاریک دربارهٔ عقده‌های روحی همراه با رابطه جنسی، شهرت و اینترنت است. این رمان به بررسی موارد زیر می‌پردازد: رابطه ناخواسته معتاد پورنوگرافی با یک زن را که فکر می‌کند می‌تواند با خدا صحبت کند و درگیر شدن با کاسبان جنسی که به نخبگان هالیوود خدمت می‌کنند. شخصیت اصلی داستان، جری درزن، از اعتیاد به پورنوگرافی جعلی افراد مشهور رنج می‌برد. جعلهای افراد مشهور خاص در این رمان ذکر شده که عبارتند از ناتالی پورتمن، اسکارلت جوهانسون، هالی بری، آنجلینا جولی، کیت بکینزیل و عروسک‌های Pussycat. علاوه بر این، جعل افراد مشهور فوت شده از جمله جودی گارلند و آدری هپبورن نیز در رمان ذکر شده‌است.

 

Aargauer Zeitung می‌گوید که دستکاری تصاویر و فیلم‌ها با استفاده از هوش مصنوعی می‌تواند تبدیل به یک پدیدهٔ توده ای خطرناک شود. با این حال، جعل تصاویر و فیلم‌ها حتی از ظهور نرم‌افزار ویرایش ویدئو و برنامه‌های ویرایش عکس، قدیمی تر است. در این مورد، واقع گرایی یک جنبه جدید است.

اثر دیگری از جعل عمیق این است که دیگر مشخص نمی‌شود که محتوا هدفمند است (مانند طنز) یا واقعی است. الکس شامپاندارد، پژوهشگر AI، گفته‌است که همه باید بدانند که امروزه، با چه سرعتی همه چیز با این تکنولوژی خراب می‌شود و اینکه مشکل، فنی نیست بلکه یک مورد است که با اعتماد به اطلاعات و روزنامه‌نگاری حل می‌شود. مشکل اصلی این است که بشریت می‌تواند به دورانی برسد که دیگر نمی‌توان تعیین کرد که آیا رسانه‌های تصویری مطابق با حقیقت هستند یا خیر.

برخی از وبسایتها، مانند Twitter و Gfycat، اعلام کردند که محتوای جعل عمیق را حذف و ناشران آن را مسدود خواهند کرد. قبلاً، پلتفرم چت Discord، یک کانال چت با فیلم‌های پورن جعلی فرد مشهوری را مسدود کرده بود. وب سایت پورنوگرافی، Pornhub، همچنین قصد دارد تا چنین محتوایی را مسدود کند. با این حال، گزارش شده‌است که این سایت ممنوعیت آن را اعمال نکرده‌است. در Reddit، این وضعیت در ابتدا ناواضح باقی ماند تا زمانی که زیرمجموعه آن در ۷ فوریه ۲۰۱۸ به علت نقض غیرقانونی پورنوگرافی غیرداوطلبانه، به حالت تعلیق درآمد. در سپتامبر سال ۲۰۱۸، گوگل تصاویری از پورنوگرافی مصنوعی ناخواسته را به فهرست ممنوعیتش اضافه کرد و به همه اجازه داد تا ممنوعیت نتایج واقعی یا برهنگی‌های جعلی را درخواست کنند

[ad id='39844']

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *