skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

شناساگر دیپ‌فیک اینتل معرفی شد

۲۸ آبان ۱۴۰۱

زمان مطالعه : ۵ دقیقه

فناوری دیپ‌فیک که تصاویر جعلی دیجیتالی از افراد تولید می‌کند، پتانسیل بالایی برای سو استفاده دارد. اینتل می‌گوید ابزار شناساگر جدیدی به نام FakeCatcher برای شناسایی دیپ‌فیک طراحی کرده است و این ابزار با دقت ۹۶ درصدی ویدیوهای جعلی را شناسایی می‌کند.

به گزارش پیوست، اینتل که ابزار فیک‌کچر (FakeCatcher) را اولین در نوع خود معرفی کرده می‌گوید این شناساگر به صورت زنده ویدیوهای دیپ‌فیک و جعلی را شناسایی می‌کند. فیک‌کچر، با اسکن پیکسل‌های فیلم، محتوای جعلی را با دقت ۹۶ درصدی براساس جریان خون صورت فرد شناسایی می‌کند. سپس یک هوش مصنوعی، واقعی بودن یا نبود فرد حاضر در فیلم را تشخیص می‌دهد.

دیپ‌کچر توسط ایکل دمیر، محقق اینتل و امور سیفتکی، از دانشگاه ایالتی نیویورک، با استفاده از تکنولوژی اینتل طراحی شده است.

ایکل دمیر در بیانیه خبری اینتل گفت: «در حال حاضر ویدیوهای دیپ‌فیک همه جا هستند. احتمالا تا الان این ویدیوها را دیده باشید؛ ویدیو‌هایی از افراد معروف در حال انجام کار یا گفتن حرفی که واقعی نیست.»

فیک‌کچر در یک سرور وب میزبانی می‌شود و از طریق یک پلتفرم وب به ویدیو دسترسی پیدا می‌کند. طبق اعلام اینتل، این تکنولوژی رویکردی برخلاف شناساگرهای سنتی دارد. شناساگرهای سنتی معمولا به دنبال چیزهای جعلی در یک ویدیو هستند اما فیک‌کچر به دنبال واقعیت‌ها است.

دمیر در مصاحبه‌ای با ونچربیت تصریح کرد که فیک‌کچر بر پایه فوتوپلتیسموگرافی (PPG) طراحی شده است. در این روش، تغییر جریان خود در بافت انسانی مورد بررسی قرار می‌گیرد. اگر فرد حاضر در تصویر واقعی باشد، رنگ بافت مورد نظر باید درنتیجه افزایش جریان تغییر کند اما این تغییر در سطح میکروسکپی صورت می‌گیرد. دیپ‌فیک حداقل در حال حاضر نمی‌تواند این تغییر را به شکل واقعی تقلید کند.

تکنولوژی دیپ‌فیک در سال‌های اخیر رشد قابل توجهی را تجربه کرده است. اف‌بی‌آی در تابستان گذشته با انتشار گزارش اعلام کرد که استفاده از دیپ‌فیک در ارائه درخواست دورکاری افزایش یافته است. پتریک هیلمن، مدیر مراقبت‌های بایننس، در پستی وبلاگی گفت که هکرها برای جعل هویت او در جلسات از دیپ‌فیک استفاده کرده‌اند.

اهمیت بالای شناسایی دیپ‌فیک

درنتیجه افزایش تهدید‌ها، شناسایی دیپ‌فیک اهمیت بیشتری پیدا کرده است. مدیر ارشد علمی مایکروسافت، اریک هورویتز، به تازگی با انتشار تحقیقاتی نشان داده است که تهدید دیپ‌فیک به ویژه در ویدیوهای زنده که حس صحبت کردن با یک انسان واقعی را القا می‌کند، بیشتر شده است.

موسه تحقیقاتی فارستر در سال ۲۰۲۰ پیش بینی کرده بود که هزینه کلاهبرداری‌های دیپ‌فیکی به بیش از ۲۵۰ میلیون دلار می‌رسد.

گزارشی از وال‌استریت ژورنال نیز نشان می‌دهد که دیپ‌فیک افراد معروفی همچون تام‌ کروز، ایلان ماسک و لئوناردو دیکاپریو در تبلیغات غیرمجاز افزایش یافته است.

اما دیپ‌فیک تنها به استفاده غیرمجاز و کلاهبرداری محدود نمی‌شود، شرکت‌هایی همچون Hour One و Synthesia خدمات دیپ‌فیک را برای کاربردهایی همچون آموزش و تجارت الکترونیک در اختیار شرکت‌ها و کسب‌و‌کارها قرار می‌دهند. افراد معروف هم گاهی خودخواسته همزاد دیجیتالی خود را برای استفاده در اختیار شرکت‌ها و کاربران قرار می‌دهند.

دمیر می‌گوید اینتل در حال انجام تحقیقاتی است که البته هنوز در مراحل اولیه است. به گفته او: «فیک‌کچر بخشی از یک تیم تحقیقاتی بزرگتر به نام Trusted Media در اینتل است که در زمینه تولید مسئولانه و منبع رسانه‌ای برای محتوای دستکاری شده یا دیپ‌فیک‌ فعالیت دارد. به طور خلاصه،‌ پادزهر دیپ‌فیک‌ها شناسایی آنها است و ما در حال ساخت شناساگرهای مختلفی هستیم.»

مرحله بعدی، شناسایی منبع یا مدل سازنده دیپ‌فیک است. او می‌گوید: «هدف طلایی ما رسیدن به یک دسته بندی از این مدل‌های هوش مصنوعی و درنتیجه رسیدن به اجماع الگوریتمی درمورد محتوای واقعی و جعلی است.»

تاریخچه مشکلات شناسایی دیپ‌فیک

متاسفانه، شناسایی دیپ‌فیک‌ها با مشکلات زیادی مواجه است. براساس تحقیقات دانشگاه کالیفرنیای جنوبی که در سال ۲۰۲۱ منتشر شد، برخی از پایگاه‌های داده‌ای که برای آموزش سیستم‌های دیپ‌فیک استفاده می‌شوند توازن نژادی و جنسی مناسبی ندارند و در شناساگرهای دیپ‌فیک هم مشکلات تشدید می‌شود. احتمال اشتباه در برخی از شناساگرها تا ۱۰.۷ درصد برای گروه‌های نژادی مختلف متفاوت است.

تحقیقاتی از سوی گوگل و دانشگاه برکلی کالیفرنیا در سال ۲۰۲۰ نیز نشان داد که حتی بهترین سیستم‌های هوش مصنوعی شناسایی محتوای جعلی را هم می‌توان فریب داد و تصاویر جعلی را به جای واقعی جا زد.

بازی موش و گربه تولید کنندگان و شناساگرهای دیپ‌فیک ادامه دارد اما دمیر می‌گوید سیستم فیک‌کچر را نمی‌توان فریب داد.

به گفته او برای شبیه سازی PPG به پایگاه‌ داده عظیمی نیاز دارید که در حال حاضر در دسترس نیست، شاید داده‌های مربوط به ۳۰ تا ۴۰ نفر در دسترس باشد اما برای همه اینطور نیست.

با این حال رومان کران، ‌تحلیلگر هوش مصنوعی/یادگیری ماشین فارستر، در مصاحبه با ونچربیت گفت ما در زمینه شناسایی متن،‌ صوت یا ویدیو وارد یک جدال تکاملی بین بازوهای تولید و شناسایی شده‌ایم که هرکدام دائما در حال پیشرفت و تکامل هستند.

او گفت: «شناساگر دیپ‌فیک اینتل اگر به اندازه ادعایش دقیق باشد، گام رو به جلوی بزرگی محسوب می‌شود، البته اگر دقتش به ویژگی خاصی از فرد حاضر در تصویر (مثل رنگ چهره، شرایط نور یا مقدار پوستی که در ویدیو مشاهده می‌کنید) وابسته نباشد.»

منبع: VentureBeat, Gizmodo

https://pvst.ir/djq

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو