امکان استعلام اطلاعات شرکتها توسط سند الکترونیک میسر شد
سند الکترونیک اشخاص حقوقی امکان استعلام سریع و دقیق اطلاعات شرکتها را فراهم کرده است.…
۲۳ مهر ۱۴۰۳
۲۰ مهر ۱۳۹۹
زمان مطالعه : ۶ دقیقه
دیپفیک یا جعل عمیق قرار است ماندگار شود. مدیریت اطلاعات نادرست و محافظت از دادههای عمومی با قدرت گرفتن هوش مصنوعی از همیشه دشوارتر خواهد بود. شناسایی محتوا و ویدئوی صحیح از ویدئوی جعلی به تدریج نیازمند تکنولوژی و ابزارهای متفاوتی خواهد شد.
به گزارش پیوست، یکی از روزنامهنگاران ویدئویی را از منبعی ناشناس دریافت میکند. در این ویدئو یکی از نامزدهای ریاست جمهوری به فعالیتی غیرقانونی اعتراف میکند. اما آیا این ویدئو واقعیت دارد؟ اگر واقعیت داشته باشد این خبر یکی از خبرهای بزرگی خواهد بود که انتخابات را متحول خواهد کرد. اما این روزنامهنگار ویدئو را با ابزاری خاص بررسی میکند و متوجه میشود که این ویدئو آنچه به نظر میرسد نیست. در واقع این ویدئو یک «دیپفیک» است که با استفاده از یادیگری عمیق و از طریق هوش مصنوعی ساخته شدهاست.
به زودی روزنامهنگاران تمامی نقاط جهان باید از چنین ابزاری استفاده کنند. به زودی حتی مردم عادی نیز میتوانند از این تکنولوژی برای ساخت ویدئوهای ساختگی در فضای مجازی استفاده کنند.
محققانی که در حال مطالعه روشهای شناسایی دیپفیک و ساخت ابزاری برای روزنامهنگاران هستند به آینده این ابزارها اشاره کردهاند. این ابزارها قرار نیست مشکل ما را برطرف کنند بلکه تنها بخشی از تجهیزات موجود برای مبارزه با شایعات محسوب میشوند.
بیشتر مردم میدانند که نباید هرچه میبینند را باور کنند. در دو دهه گذشته مخاطبان اخبار به دیدن عکسهای دستکاری شده عادت کردهاند. اما ویدئو داستان دیگری است. کارگردانان هالیوودی میتوانند با صرف میلیونها دلار هزینه یک صحنه واقعگرایانه را تداعی کنند. اما امروزه حتی افراد مبتدی نیز با استفاده از دیپفیک و یک کامپیوتر چند هزاردلاری و چند هفته زمان میتوانند ویدئویی شبه به یک صحنه واقعی را ایجاد کنند.
دیپفیک میتواند افراد را در فیلمهایی قرار دهد که تا به حال در آن نبودهاند، تصور کنید تام کروز در نقش مرد آهنی و همین موضوع میتواند ویدئوها را سرگرم کننده کنند. اما استفاده غیراخلاقی از دیپفیک باعث نگرانی مردم شده است.
با استفاده از دیپفیک میتوان ویدئوییهایی ساختگی از رهبران سیاسی جهان ایجاد کرد. حزب سوشالیست بلژیک چندی پیش یک ویدئو ساختگی غیردیپ فیک را از دونالد ترامپ منتشر کرد و حتی همین ویدئو بیکیفیت و غیرحرفهای نیز بازخوردهای فراوانی را به دنبال داشت. حالا تصور کنید ویدئوهای حرفهای با استفاده از دیپفیک منتشر شوند.
اما شاید ترسناکترین مسئله ترس از دیپفیک باشد، یعنی همینکه بتوان محتوای تمامی ویدئوهای واقعی را با برچسب دیپفیک زیرسوال برد.
با توجه به وجود چنین خطراتی باید بتوانیم دیپفیک را شناسایی و ویدئوهای دیپفیک را مشخص کنیم. برچسب زدن و مشخص کردن ویدئوهای دیپفیک از فریب عموم جلوگیری خواهد کرد و ویدئوهای واقعی نیز به اشتباه برچسب دیپفیک نخواهند خورد.
تحقیقات برای شناسایی دیپفیک در حدود سه سال پیش آغاز شد. در ابتدا این تحقیقات روی شناسایی مشکلات مشهود در ویدئوها تمرکز داشتند. برای مثال بسیاری از دیپفیکها پلک نمیزدند. اما با گذشت زمان دیپفیکها پیشرفت کردهاند و به خوبی ویدئوهای واقعی را تقلید میکنند و درنتیجه تشخیص آنها هم برای انسان و هم ابزارها دشوارتر شده است.
تحقیقات مربوط به شناسایی دیپفیک دو دسته اصلی دارد. دسته اول به رفتار افراد در ویدئوها مربوط میشود. برای مثال ویدئوهای مربوط به شخصی معروف همچون باراک اوباما را در نظر بگیرید. هوش مصنوعی با استفاده از این دادهها میتواند الگوهای مربوط به آن شخص از جمله حالت بدنی و طریقه صحبت او را بیاموزد. سپس این برنامه با مشاهده دیپفیک مربوط به آن شخص تفاوت در الگوهای او را شناسایی میکند. این دیدگاه حتی در صورتی که کیفیت ویدئو پایین باشد نیز جواب خواهد داد.
دیگر محققان از جمله تیم تحقیقی ما روی تفاوتهای کلی دیپفیکها با ویدئوهای واقعی تمرکز کردهاند. ویدئوهای دیپفیک با تلفیق فریمهای جداگانه یک ویدئو را تشکیل میدهند. تیم ما دادههای مهمی را از حالت صورت در هرکدام از این فریمها استخراج میکند و آنها را از طریق مجموعهای از فریمهای متقارن دنبال میکند. با این روش ما میتوانیم کاستیها و ناهماهنگیهای موجود در جریان اطلاعات را شناسایی کنیم. ما برای شناسایی فایل صوتی ساختگی نیز از همین روش استفاده میکنیم.
تشخیص این جزئیات برای مردم عادی دشوار است اما همین جزئیات نشان میدهد که دیپفیک هنوز هم بی نقص نیست. این شناساگرها را میتوان نه تنها برای رهبران بزرگ جهان بلکه برای هرکس دیگری نیز استفاده کرد. در پایان شاید به هردو نوع شناساگر دیپفیک نیاز باشد.
سیستمهای شناسایی اخیر به خوبی در آزمایشهای انجام گرفته با ویدئوهای منتخب به خوبی جواب دادند. اما متاسفانه حتی بهترین مدلها نیز برروی ویدئوهایی که در فضای آنلاین وجود دارند عملکرد ضعیفی داشتند. گام مهم بعدی تقویت این ابزارها و افزایش دقت آنها است.
در حالت ایدهآل، ابزار شناسایی دیپفیک باید در اختیار همه قرار گیرد. اما این تکنولوژی در مراحل اولیه ساخت و توسعه قرار دارد. محققان باید ابزارها را بهبود بخشیده و پیش از انتشار آن این ابزارها را در مقابل هکرها محافظت کنند.
با وجود محدودیتی که برای ابزارهای شناسایی دیپفیک وجود دارد، ابزارهای ساخت دیپفیک در اختیار عموم قرار دارد. نمیتوان نسبت به چنین وضعیتی بی تفاوت بود.
روزنامهنگاران پیش از انتشار هرگونه اطلاعاتی باید آن را تایید کنند. همین حالا نیز روزنامهنگاران با استفاده از روشهای متعددی از جمله بررسی منبع و تایید خبر توسط بیش از یک شخص با شایعات نادرست مبارزه میکنند اما با ارائه ابزار مناسب اطلاعات بهتری در اختیار روزنامه نگاران قرار خواهد گرفت و البته روزنامهنگاران نیز تنها به تکنولوژی اطمینان نخواهند کرد و از تکنولوژی در کنار روشهای رایج خود استفاده میکنند.
سرمایهگذاری شرکتهایی همچون فیس بوک و مایکروسافت در شناسایی و درک دیپفیکها امیدوار کننده است. این حوزه باید همپای تکنولوژی ساخت دیپفیک پیشرفت کند.
روزنامهنگاران و پلتفرمهای شبکه اجتماعی باید روش مناسبی را برای هشدار درمورد دیپفیکها مشخص کنند. تحقیقات نشان داده است که افراد دروغ را به یاد میآورند اما دروغ بودن آن را معمولا فراموش میکنند. آیا همین حالت برای ویدئوهای ساختگی نیز وجود خواهد داشت؟ نمیتوان تنها با قراردادن یک برچسب «دیپفیک» با شایعات نادرست مبارزه کرد.
دیپفیکها ماندگار خواهند شد. با قدرت گرفتن هوش مصنوعی مدیریت شایعات و محافظت از عموم به مسئلهای چالش برانگیز تبدیل شده است. ما به عنوان بخشی از جامعه تحقیقی برای مبارزه با این تهدید تلاش میکنیم و گام اول در این مبارزه شناسایی آن است.
منبع: nationalinterest