اوپنایآی روی تحقیق درمورد «اخلاقیات هوش مصنوعی» سرمایهگذاری میکند
بزرگترین استارتآپ هوش مصنوعی جهان در حال تامین مالی یک تحقیقات آکادمیک درمورد الگوریتمهایی است…
۳ آذر ۱۴۰۳
۲۸ آبان ۱۴۰۱
زمان مطالعه : ۵ دقیقه
فناوری دیپفیک که تصاویر جعلی دیجیتالی از افراد تولید میکند، پتانسیل بالایی برای سو استفاده دارد. اینتل میگوید ابزار شناساگر جدیدی به نام FakeCatcher برای شناسایی دیپفیک طراحی کرده است و این ابزار با دقت ۹۶ درصدی ویدیوهای جعلی را شناسایی میکند.
به گزارش پیوست، اینتل که ابزار فیککچر (FakeCatcher) را اولین در نوع خود معرفی کرده میگوید این شناساگر به صورت زنده ویدیوهای دیپفیک و جعلی را شناسایی میکند. فیککچر، با اسکن پیکسلهای فیلم، محتوای جعلی را با دقت ۹۶ درصدی براساس جریان خون صورت فرد شناسایی میکند. سپس یک هوش مصنوعی، واقعی بودن یا نبود فرد حاضر در فیلم را تشخیص میدهد.
دیپکچر توسط ایکل دمیر، محقق اینتل و امور سیفتکی، از دانشگاه ایالتی نیویورک، با استفاده از تکنولوژی اینتل طراحی شده است.
ایکل دمیر در بیانیه خبری اینتل گفت: «در حال حاضر ویدیوهای دیپفیک همه جا هستند. احتمالا تا الان این ویدیوها را دیده باشید؛ ویدیوهایی از افراد معروف در حال انجام کار یا گفتن حرفی که واقعی نیست.»
فیککچر در یک سرور وب میزبانی میشود و از طریق یک پلتفرم وب به ویدیو دسترسی پیدا میکند. طبق اعلام اینتل، این تکنولوژی رویکردی برخلاف شناساگرهای سنتی دارد. شناساگرهای سنتی معمولا به دنبال چیزهای جعلی در یک ویدیو هستند اما فیککچر به دنبال واقعیتها است.
دمیر در مصاحبهای با ونچربیت تصریح کرد که فیککچر بر پایه فوتوپلتیسموگرافی (PPG) طراحی شده است. در این روش، تغییر جریان خود در بافت انسانی مورد بررسی قرار میگیرد. اگر فرد حاضر در تصویر واقعی باشد، رنگ بافت مورد نظر باید درنتیجه افزایش جریان تغییر کند اما این تغییر در سطح میکروسکپی صورت میگیرد. دیپفیک حداقل در حال حاضر نمیتواند این تغییر را به شکل واقعی تقلید کند.
تکنولوژی دیپفیک در سالهای اخیر رشد قابل توجهی را تجربه کرده است. افبیآی در تابستان گذشته با انتشار گزارش اعلام کرد که استفاده از دیپفیک در ارائه درخواست دورکاری افزایش یافته است. پتریک هیلمن، مدیر مراقبتهای بایننس، در پستی وبلاگی گفت که هکرها برای جعل هویت او در جلسات از دیپفیک استفاده کردهاند.
درنتیجه افزایش تهدیدها، شناسایی دیپفیک اهمیت بیشتری پیدا کرده است. مدیر ارشد علمی مایکروسافت، اریک هورویتز، به تازگی با انتشار تحقیقاتی نشان داده است که تهدید دیپفیک به ویژه در ویدیوهای زنده که حس صحبت کردن با یک انسان واقعی را القا میکند، بیشتر شده است.
موسه تحقیقاتی فارستر در سال ۲۰۲۰ پیش بینی کرده بود که هزینه کلاهبرداریهای دیپفیکی به بیش از ۲۵۰ میلیون دلار میرسد.
گزارشی از والاستریت ژورنال نیز نشان میدهد که دیپفیک افراد معروفی همچون تام کروز، ایلان ماسک و لئوناردو دیکاپریو در تبلیغات غیرمجاز افزایش یافته است.
اما دیپفیک تنها به استفاده غیرمجاز و کلاهبرداری محدود نمیشود، شرکتهایی همچون Hour One و Synthesia خدمات دیپفیک را برای کاربردهایی همچون آموزش و تجارت الکترونیک در اختیار شرکتها و کسبوکارها قرار میدهند. افراد معروف هم گاهی خودخواسته همزاد دیجیتالی خود را برای استفاده در اختیار شرکتها و کاربران قرار میدهند.
دمیر میگوید اینتل در حال انجام تحقیقاتی است که البته هنوز در مراحل اولیه است. به گفته او: «فیککچر بخشی از یک تیم تحقیقاتی بزرگتر به نام Trusted Media در اینتل است که در زمینه تولید مسئولانه و منبع رسانهای برای محتوای دستکاری شده یا دیپفیک فعالیت دارد. به طور خلاصه، پادزهر دیپفیکها شناسایی آنها است و ما در حال ساخت شناساگرهای مختلفی هستیم.»
مرحله بعدی، شناسایی منبع یا مدل سازنده دیپفیک است. او میگوید: «هدف طلایی ما رسیدن به یک دسته بندی از این مدلهای هوش مصنوعی و درنتیجه رسیدن به اجماع الگوریتمی درمورد محتوای واقعی و جعلی است.»
متاسفانه، شناسایی دیپفیکها با مشکلات زیادی مواجه است. براساس تحقیقات دانشگاه کالیفرنیای جنوبی که در سال ۲۰۲۱ منتشر شد، برخی از پایگاههای دادهای که برای آموزش سیستمهای دیپفیک استفاده میشوند توازن نژادی و جنسی مناسبی ندارند و در شناساگرهای دیپفیک هم مشکلات تشدید میشود. احتمال اشتباه در برخی از شناساگرها تا ۱۰.۷ درصد برای گروههای نژادی مختلف متفاوت است.
تحقیقاتی از سوی گوگل و دانشگاه برکلی کالیفرنیا در سال ۲۰۲۰ نیز نشان داد که حتی بهترین سیستمهای هوش مصنوعی شناسایی محتوای جعلی را هم میتوان فریب داد و تصاویر جعلی را به جای واقعی جا زد.
بازی موش و گربه تولید کنندگان و شناساگرهای دیپفیک ادامه دارد اما دمیر میگوید سیستم فیککچر را نمیتوان فریب داد.
به گفته او برای شبیه سازی PPG به پایگاه داده عظیمی نیاز دارید که در حال حاضر در دسترس نیست، شاید دادههای مربوط به ۳۰ تا ۴۰ نفر در دسترس باشد اما برای همه اینطور نیست.
با این حال رومان کران، تحلیلگر هوش مصنوعی/یادگیری ماشین فارستر، در مصاحبه با ونچربیت گفت ما در زمینه شناسایی متن، صوت یا ویدیو وارد یک جدال تکاملی بین بازوهای تولید و شناسایی شدهایم که هرکدام دائما در حال پیشرفت و تکامل هستند.
او گفت: «شناساگر دیپفیک اینتل اگر به اندازه ادعایش دقیق باشد، گام رو به جلوی بزرگی محسوب میشود، البته اگر دقتش به ویژگی خاصی از فرد حاضر در تصویر (مثل رنگ چهره، شرایط نور یا مقدار پوستی که در ویدیو مشاهده میکنید) وابسته نباشد.»
منبع: VentureBeat, Gizmodo