پژوهشگران شرکت بایتدنس، مالک تیکتاک، یک سیستم هوش مصنوعی جدید به نام OmniHuman-1 را معرفی کردهاند که قادر است واقعیترین ویدیو های دیپ فیک تا به امروز را تولید کند.
دیپ فیک اکنون به یک فناوری رایج تبدیل شده است. اپلیکیشنهای زیادی وجود دارند که میتوانند افراد را به عکس اضافه کنند یا باعث شوند کسی چیزی بگوید که هرگز نگفته است. اما اکثر دیپ فیک ها، بهویژه در ویدیو ها، هنوز نتوانستهاند دره وهم (Uncanny Valley) را پشت سر بگذارند. معمولاً نشانههایی وجود دارد که نشان میدهد از هوش مصنوعی در آن استفاده شده است. با این حال، OmniHuman-1 – حداقل براساس نمونههای گلچینشدهای که تیم ByteDance منتشر کرده – این مشکل را برطرف کرده است.
به گفته پژوهشگران بایت دنس، OmniHuman-1 تنها با یک تصویر مرجع و یک فایل صوتی، مانند گفتار یا آواز، میتواند کلیپی با هر طولی تولید کند. نسبت ابعاد ویدئوی خروجی و حتی «تناسب بدن» سوژه – یعنی مقدار بدن نشاندادهشده در فیلم جعلی – نیز قابل تنظیم هستند.
این سیستم با 19000 ساعت محتوای ویدئویی از منابع نامشخص آموزش دیده است. OmniHuman-1 حتی میتواند ویدئوهای موجود را ویرایش کند، از جمله تغییر حرکات اندامهای افراد. نتیجه نهایی بسیار واقعی و قانعکننده است.
OmniHuman-1 نیز بینقص نیست، اما …
البته OmniHuman-1 بینقص نیست. تیم ByteDance اعلام کرده است که تصاویر مرجع با کیفیت پایین نتایج خوبی ارائه نمیدهند و سیستم در مواجهه با برخی ژستها با مشکل مواجه میشود. به عنوان مثال، در یکی از ویدئوها حرکات غیرطبیعی دست در هنگام گرفتن لیوان نوشیدنی دیده میشود.
با این وجود، OmniHuman-1 بسیار پیشرفتهتر از تکنیکهای دیپفیک قبلی است و احتمالاً نشاندهنده آینده فناوریهای مشابه خواهد بود. هرچند ByteDance هنوز این سیستم را بهصورت عمومی عرضه نکرده است، جامعه هوش مصنوعی معمولاً در مهندسی معکوس مدلهای اینچنینی زمان زیادی صرف نمیکند.
در سال گذشته، دیپفیکهای سیاسی بهسرعت در سراسر جهان گسترش یافتند. در روز انتخابات تایوان، گروهی وابسته به حزب کمونیست چین یک فایل صوتی جعلی از یک سیاستمدار منتشر کرد که در آن از یک نامزد طرفدار چین حمایت میکرد. در مولداوی، ویدئوهای دیپفیکی رئیسجمهور این کشور، مایا ساندو، را نشان میداد که از مقام خود استعفا میدهد. همچنین در آفریقای جنوبی، یک دیپفیک از رپر معروف، امینم، در حال حمایت از یک حزب مخالف دولت، پیش از انتخابات این کشور منتشر شد.
دیپفیکها به طور فزایندهای برای انجام جرایم مالی نیز استفاده میشوند. مصرفکنندگان با دیپفیکهایی از افراد مشهور که فرصتهای سرمایهگذاری جعلی ارائه میدهند، فریب میخورند. شرکتها نیز توسط افرادی که از دیپفیک برای جعل هویت استفاده میکنند، میلیونها دلار متضرر میشوند. براساس گزارش Deloitte، محتواهای تولیدشده با هوش مصنوعی در سال 2023 بیش از 12 میلیارد دلار خسارت ناشی از کلاهبرداری به بار آوردند و این رقم در ایالات متحده تا سال 2027 ممکن است به 40 میلیارد دلار برسد.
در فوریه گذشته، صدها نفر از جامعه هوش مصنوعی نامهای سرگشاده برای تنظیم مقررات سختگیرانه علیه دیپفیک امضا کردند. در غیاب قانونی فدرال در ایالات متحده که دیپفیکها را جرمانگاری کند، بیش از 10 ایالت قوانین علیه جعل هویت با کمک هوش مصنوعی وضع کردهاند. یک قانون در کالیفرنیا – که فعلاً متوقف شده است – اولین موردی خواهد بود که به قضات اجازه میدهد دستور حذف دیپفیکها را صادر کرده یا جریمههای مالی برای انتشاردهندگان آنها تعیین کنند.
متأسفانه، تشخیص دیپفیکها دشوار است. در حالی که برخی شبکههای اجتماعی و موتورهای جستجو اقداماتی برای محدودکردن انتشار آنها انجام دادهاند، حجم محتوای دیپفیک آنلاین همچنان با سرعت هشداردهندهای در حال افزایش است.
در یک نظرسنجی که در ماه می 2024 توسط شرکت احراز هویت Jumio انجام شد، 60 درصد از مردم اعلام کردند که در سال گذشته با یک دیپفیک مواجه شدهاند. 72 درصد از پاسخدهندگان نیز اظهار داشتند که به طور روزانه نگران فریبخوردن توسط دیپفیکها هستند و اکثریت از تصویب قوانینی برای مقابله با گسترش محتوای جعلی تولیدشده توسط هوش مصنوعی حمایت کردند.
دیدگاهتان را بنویسید