محققان ارتش آمریکا روشی برای تشخیص «دیپ فیک» یا «جعل عمیق» ابداع کردهاند که ممکن است به ایجاد یک تکنولوژی فوقالعاده برای سربازان منتهی شود و به آنان در انجام وظایفی مانند شناسایی تهدید دشمنان و تشخیص چهره کمک کند.
این روش بر امکانات سبک و آسان برای آموزش، و تکنیک بیومتریک پیشرفته چهره تمرکز دارد که با سایز، وزن و نیازمندیهای ابزاری سربازان در میدان جنگ، مطابقت دارد.
محققان در بخش فرماندهی توسعه قابلیتهای رزمی ارتش آمریکا، با یک گروه تحقیقاتی در دانشگاه کالیفرنیای جنوبی همکاری کردند تا با تهدید چشمگیر جعل عمیق علیه جامعه و امنیت ملی، مقابله کنند. نتیجه این همکاری، راهحلی ابداعی و فنی به نام «دیفیکهاپ» است.
نتیجه کار آنان در یک مقاله منتشر شده و قرار است در کنفرانس بینالمللی مولتیمدیا و نمایشگاه ۲۰۲۱ در ماه ژوئیه، ارائه شود.
Read More
This section contains relevant reference points, placed in (Inner related node field)
جعل عمیق «دیپفیک» به محتوای ویدئویی و تکنیکی گفته میشود که مبتنی بر هوش مصنوعی است و برای ترکیب و روی هم قرار دادن تصاویر انسان مورد استفاده قرار میگیرد و محصول آن ویدیویی جعلی و واقعینما است که فرد را در حال گفتن یا انجام کاری که واقعیت ندارد، نشان میدهد.
این ابزار جدید علاوه بر کمک به سربازان در تشخیص تهدیدهای بالقوه علیه امنیت ملی، میتواند به خلق نرمافزاری منجر شود که موقع پخش ویدیوهای جعلی روی تلفن، به فرد هشدار دهد.
رشد شمار ویدیوهای جعلی از محتوای بدون مجوز افراد تا ویدیوهای ساخته و پرداخته دشمنان خارجی که برای کمپینهای خبر جعلی درست میشوند و پخش گسترده آنها میتواند برای جوامع خطرناک باشد.
بیشتر تکنیکهای پیشرفته تشخیص ویدیوهای جعل عمیق، بر اساس مکانیسم یادگیری عمیق کار میکنند که از نظر قابلیت حملونقل، قدرت و قابلیت ارتقا، ضعف دارند.
به گفته تیم سازنده فناوری جدید، دیفیکهاپ نسبت به روشهای قبلی، چندین مزیت عمده دارد؛ از جمله این که کوچک است و امکان اجرای آن بر ابزار و پلتفرمهای دیگر وجود دارد.
دانشمندان میگویند که نزدیک به هشت هزار ویدیوی جعل عمیق در اوایل سال ۲۰۱۹ در فضای آنلاین وجود داشت و تنها در ۹ ماه، این شمار تقریبا دو برابر شده است.