skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

آیا هوش مصنوعی می‌تواند ویدئو‌های «دیپ‌فیک‌» را تشخیص دهد؟

۲۰ مهر ۱۳۹۹

زمان مطالعه : ۶ دقیقه

دیپ‌فیک‌

دیپ‌فیک‌ یا جعل عمیق قرار است ماندگار شود. مدیریت اطلاعات نادرست و محافظت از داده‌های عمومی با قدرت گرفتن هوش مصنوعی از همیشه دشوارتر خواهد بود. شناسایی محتوا و ویدئوی صحیح از ویدئوی جعلی به تدریج نیازمند تکنولوژی و ابزارهای متفاوتی خواهد شد.

به گزارش پیوست، یکی از روزنامه‌نگاران ویدئویی را از منبعی ناشناس دریافت می‌کند. در این ویدئو یکی از نامزد‌های ریاست جمهوری به فعالیتی غیرقانونی اعتراف می‌کند. اما آیا این ویدئو واقعیت دارد؟ اگر واقعیت داشته باشد این خبر یکی از خبر‌های بزرگی خواهد بود که انتخابات را متحول خواهد کرد. اما این روزنامه‌نگار ویدئو را با ابزاری خاص بررسی می‌کند و متوجه می‌شود که این ویدئو آنچه به نظر می‌رسد نیست. در واقع این ویدئو یک «دیپ‌فیک‌» است که با استفاده از یادیگری عمیق و از طریق هوش مصنوعی ساخته شده‌است.

به زودی روزنامه‌نگاران تمامی نقاط جهان باید از چنین ابزاری استفاده کنند. به زودی حتی مردم عادی نیز ‌می‌توانند از این تکنولوژی برای ساخت ویدئو‌های ساختگی در فضای مجازی استفاده کنند.

محققانی که در حال مطالعه روش‌های شناسایی دیپ‌فیک‌ و ساخت ابزاری برای روزنامه‌نگاران هستند به آینده این ابزار‌ها اشاره کرده‌اند. این ابزار‌ها قرار نیست مشکل ما را برطرف کنند بلکه تنها بخشی از تجهیزات موجود برای مبارزه با شایعات محسوب می‌شوند.

مشکل دیپ‌فیک‌

بیشتر مردم می‌دانند که نباید هرچه می‌بینند را باور کنند. در دو دهه گذشته مخاطبان اخبار به دیدن عکس‌های دستکاری شده عادت کرده‌اند. اما ویدئو داستان دیگری است. کارگردانان هالیوودی می‌توانند با صرف میلیون‌ها دلار هزینه یک صحنه واقع‌گرایانه را تداعی کنند. اما امروزه حتی افراد مبتدی نیز با استفاده از دیپ‌فیک‌ و یک کامپیوتر چند هزاردلاری و چند هفته زمان می‌توانند ویدئویی شبه به یک صحنه واقعی را ایجاد کنند.

دیپ‌فیک‌ می‌تواند افراد را در فیلم‌هایی قرار دهد که تا به حال در آن نبوده‌اند، تصور کنید تام کروز در نقش مرد آهنی و همین موضوع می‌تواند ویدئو‌ها را سرگرم کننده ‌کنند. اما استفاده غیراخلاقی از دیپ‌فیک باعث نگرانی مردم شده است.

با استفاده از دیپ‌فیک‌ می‌توان ویدئویی‌هایی ساختگی از رهبران سیاسی جهان ایجاد کرد. حزب سوشالیست بلژیک چندی پیش یک ویدئو ساختگی غیردیپ فیک را از دونالد ترامپ منتشر کرد و حتی همین ویدئو بی‌کیفیت و غیرحرفه‌ای نیز بازخوردهای فراوانی را به دنبال داشت. حالا تصور کنید ویدئو‌های حرفه‌ای با استفاده از دیپ‌فیک منتشر شوند.

اما شاید ترسناک‌ترین مسئله ترس از دیپ‌فیک‌ باشد، یعنی همینکه بتوان محتوای تمامی ویدئو‌های واقعی را با برچسب دیپ‌فیک زیرسوال برد.

با توجه به وجود چنین خطراتی باید بتوانیم دیپ‌فیک‌ را شناسایی و ویدئو‌های دیپ‌فیک‌ را مشخص کنیم. برچسب زدن و مشخص کردن ویدئو‌های دیپ‌فیک‌ از فریب عموم جلوگیری خواهد کرد و ویدئو‌های واقعی نیز به اشتباه برچسب دیپ‌فیک نخواهند خورد.

شناسایی ویدئو‌های ساختگی

تحقیقات برای شناسایی دیپ‌فیک‌ در حدود سه سال پیش آغاز شد. در ابتدا این تحقیقات روی شناسایی مشکلات مشهود در ویدئو‌ها تمرکز داشتند. برای مثال بسیاری از دیپ‌فیک‌ها پلک نمی‌زدند. اما با گذشت زمان دیپ‌فیک‌ها پیشرفت کرده‌اند و به خوبی ویدئو‌های واقعی را تقلید می‌کنند و درنتیجه تشخیص آنها هم برای انسان و هم ابزار‌ها دشوارتر شده است.

تحقیقات مربوط به شناسایی دیپ‌فیک‌ دو دسته اصلی دارد. دسته اول به رفتار افراد در ویدئو‌ها مربوط می‌شود. برای مثال ویدئو‌های مربوط به شخصی معروف همچون باراک اوباما را در نظر بگیرید. هوش مصنوعی با استفاده از این داده‌ها می‌تواند الگو‌های مربوط به آن شخص از جمله حالت بدنی و طریقه صحبت او را بیاموزد. سپس این برنامه با مشاهده دیپ‌فیک مربوط به آن شخص تفاوت در الگو‌های او را شناسایی می‌کند. این دیدگاه حتی در صورتی که کیفیت ویدئو پایین باشد نیز جواب خواهد داد.

دیگر محققان از جمله تیم تحقیقی ما روی تفاوت‌های کلی دیپ‌فیک‌ها با ویدئو‌های واقعی تمرکز کرده‌اند. ویدئو‌های دیپ‌فیک‌ با تلفیق فریم‌های جداگانه یک ویدئو را تشکیل می‌دهند. تیم ما داده‌های مهمی را از حالت صورت در هرکدام از این فریم‌ها استخراج می‌کند و آنها را از طریق مجموعه‌ای از فریم‌های متقارن دنبال می‌کند. با این روش ما می‌توانیم کاستی‌ها و ناهماهنگی‌های موجود در جریان اطلاعات را شناسایی کنیم. ما برای شناسایی فایل صوتی ساختگی نیز از همین روش استفاده می‌کنیم.

تشخیص این جزئیات برای مردم عادی دشوار است اما همین جزئیات نشان می‌دهد که دیپ‌فیک‌ هنوز هم بی نقص نیست. این شناساگر‌ها را می‌توان نه تنها برای رهبران بزرگ جهان بلکه برای هرکس دیگری نیز استفاده کرد. در پایان شاید به هردو نوع شناساگر دیپ‌فیک‌ نیاز باشد.

سیستم‌های شناسایی اخیر به خوبی در آزمایش‌های انجام گرفته با ویدئو‌های منتخب به خوبی جواب دادند. اما متاسفانه حتی بهترین مدل‌ها نیز برروی ویدئو‌هایی که در فضای آنلاین وجود دارند عملکرد ضعیفی داشتند. گام مهم بعدی تقویت این ابزار‌ها و افزایش دقت آنها است.

چه کسی باید از شناساگر‌های دیپ‌فیک‌ استفاده کند؟

در حالت ایده‌آل، ابزار شناسایی دیپ‌فیک‌ باید در اختیار همه قرار گیرد. اما این تکنولوژی در مراحل اولیه ساخت و توسعه قرار دارد. محققان باید ابزار‌ها را بهبود بخشیده و پیش از انتشار آن این ابزار‌ها را در مقابل هکرها محافظت کنند.

با وجود محدودیتی که برای ابزار‌های شناسایی دیپ‌فیک‌ وجود دارد، ابزار‌های ساخت دیپ‌فیک‌ در اختیار عموم قرار دارد. نمی‌توان نسبت به چنین وضعیتی بی تفاوت بود.

روزنامه‌نگاران پیش از انتشار هرگونه اطلاعاتی باید آن را تایید کنند. همین حالا نیز روزنامه‌نگاران با استفاده از روش‌های متعددی از جمله بررسی منبع و تایید خبر توسط بیش از یک شخص با شایعات نادرست مبارزه می‌کنند اما با ارائه ابزار مناسب اطلاعات بهتری در اختیار روزنامه نگاران قرار خواهد گرفت و البته روزنامه‌نگاران نیز تنها به تکنولوژی اطمینان نخواهند کرد و از تکنولوژی در کنار روش‌های رایج خود استفاده می‌کنند.

آیا شناساگر‌ها در رقابت با جعل پیروز خواهند شد؟

سرمایه‌گذاری شرکت‌هایی همچون فیس‌ بوک و مایکروسافت در شناسایی و درک دیپ‌فیک‌ها امیدوار کننده است. این حوزه باید همپای تکنولوژی ساخت دیپ‌فیک پیشرفت کند.

روزنامه‌نگاران و پلتفرم‌های شبکه اجتماعی باید روش مناسبی را برای هشدار درمورد دیپ‌فیک‌ها مشخص کنند. تحقیقات نشان داده است که افراد دروغ را به یاد می‌آورند اما دروغ بودن آن را معمولا فراموش می‌کنند. آیا همین حالت برای ویدئو‌های ساختگی نیز وجود خواهد داشت؟ نمی‌توان تنها با قراردادن یک برچسب «دیپ‌فیک» با شایعات نادرست مبارزه کرد.

دیپ‌فیک‌ها ماندگار خواهند شد. با قدرت گرفتن هوش مصنوعی مدیریت شایعات و محافظت از عموم به مسئله‌ای چالش برانگیز تبدیل شده است. ما به عنوان بخشی از جامعه تحقیقی برای مبارزه با این تهدید تلاش می‌کنیم و گام اول در این مبارزه شناسایی آن است.

منبع: nationalinterest

http://pvst.ir/8s5

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو