ویدیوهای جعلی کامل توسط هوش مصنوعی تشخیص داده می شوند
ویدیوهای جعلی کامل توسط هوش مصنوعی تشخیص داده می شوند

تصویری: ویدیوهای جعلی کامل توسط هوش مصنوعی تشخیص داده می شوند

تصویری: ویدیوهای جعلی کامل توسط هوش مصنوعی تشخیص داده می شوند
تصویری: The Dock of Dreams with Trixie and Katya | The Bald and the Beautiful with Trixie and Katya Podcast - YouTube 2024, آوریل
Anonim
اولین نمایش اپرا در مورد مسمومیت لیتویننکو در انگلستان آغاز می شود
اولین نمایش اپرا در مورد مسمومیت لیتویننکو در انگلستان آغاز می شود

یک سال پیش ، Manish Agrawala از استنفورد به توسعه فناوری همگام سازی لب کمک کرد که به ویرایشگران ویدئو اجازه می داد کلمات بلندگوها را تقریباً به طور نامحسوس تغییر دهند. این ابزار می تواند به راحتی کلماتی را که شخص هرگز صحبت نکرده است ، حتی در وسط جمله ، قرار دهد یا کلماتی را که گفته است حذف کند. همه چیز با چشم غیر مسلح و حتی بسیاری از سیستم های کامپیوتری واقعی به نظر می رسد.

این ابزار تصحیح اشتباهات را بدون فیلمبرداری مجدد کل صحنه ها بسیار آسان کرده است ، همچنین برنامه های تلویزیونی یا فیلم هایی را برای مخاطبان مختلف در مکان های مختلف اقتباس کرده است. اما این فناوری همچنین فرصت های نگران کننده جدیدی را برای ویدئوهای جعلی که به سختی یافت می شوند ، ایجاد کرده است ، با هدف واضح تحریف حقیقت. به عنوان مثال ، یک ویدئوی اخیر جمهوری خواهان برای مصاحبه با جو بایدن از تکنیک خشن تری استفاده کرد.

تابستان امسال ، آگراوالا و همکارانش در دانشگاه استنفورد و برکلی از رویکردی مبتنی بر هوش مصنوعی برای فناوری همگام سازی لب ها رونمایی کردند. برنامه جدید بیش از 80 درصد جعلی ها را با دقت تشخیص می دهد و کوچکترین مغایرت بین صدای افراد و شکل دهان آنها را تشخیص می دهد.

اما آگراوالا ، مدیر موسسه استنفورد برای نوآوری در رسانه ها و استاد علوم کامپیوتر در فارست بسکت ، که همچنین وابسته به موسسه استنفورد برای هوش مصنوعی انسان محور است ، هشدار می دهد که هیچ راه حل طولانی مدت فنی برای جعل های عمیق وجود ندارد.

تقلبی چگونه کار می کند

دلایل موجهی برای دستکاری ویدیو وجود دارد. برای مثال ، هرکسی که از یک برنامه تلویزیونی ، فیلم یا تبلیغات تخیلی فیلمبرداری می کند ، می تواند با استفاده از ابزارهای دیجیتالی برای تصحیح خطاها یا سفارشی کردن فیلمنامه ها ، در وقت و هزینه خود صرفه جویی کند.

این مشکل زمانی ایجاد می شود که عمداً از این ابزارها برای انتشار اطلاعات غلط استفاده شود. و بسیاری از تکنیک ها برای بیننده معمولی نامرئی هستند.

بسیاری از ویدئوهای جعلی عمیق بر مبادله صورت تکیه می کنند و به معنای واقعی کلمه چهره یک فرد را بر روی فیلم شخص دیگر قرار می دهند. اما در حالی که ابزارهای تغییر چهره می توانند قانع کننده باشند ، اما نسبتاً خام هستند و معمولاً آثار دیجیتالی یا تصویری را که رایانه می تواند تشخیص دهد ، به جا می گذارند.

از سوی دیگر ، فناوری های همگام سازی لب کمتر قابل مشاهده هستند و بنابراین تشخیص آنها دشوارتر است. آنها بخش بسیار کوچکتری از تصویر را دستکاری می کنند و سپس حرکات لب را ترکیب می کنند که دقیقاً با نحوه حرکت دهان فرد در صورت بیان کلمات خاص مطابقت دارد. به گفته آگراوال ، با توجه به نمونه های کافی از تصویر و صدای شخص ، یک تهیه کننده جعلی می تواند شخص را مجبور به "گفتن" هر چیزی کند.

تشخیص تقلبی

نگران استفاده غیراخلاقی از چنین فناوری ، آگراوالا با Ohad Freed ، دانشجوی دکتری در دانشگاه استنفورد ، برای توسعه یک ابزار تشخیص همکاری کرد. هانی فرید ، استاد دانشگاه کالیفرنیا ، مدرسه اطلاعات برکلی ؛ و شروتی آگاروال ، دانشجوی دکتری دانشگاه برکلی.

در ابتدا ، محققان یک تکنیک کاملا دستی را آزمایش کردند که در آن ناظران فیلم های ویدئویی را مطالعه می کردند. این به خوبی کار می کرد ، اما در عمل کار زیاد و زمان بر بود.

سپس محققان یک شبکه عصبی مبتنی بر هوش مصنوعی را آزمایش کردند که پس از آموزش فیلمبرداری با باراک اوباما ، رئیس جمهور سابق ، تجزیه و تحلیل مشابه را بسیار سریعتر انجام می داد. شبکه عصبی بیش از 90 درصد همگام سازی لب توسط خود اوباما را تشخیص داد ، اگرچه دقت سایر سخنرانان به حدود 81 درصد کاهش یافت.

یک آزمایش واقعی حقیقت

محققان می گویند روش آنها فقط بخشی از بازی موش و گربه است. همانطور که تکنیک های جعل عمیق بهبود می یابند ، آنها حتی کلیدهای کمتری بر جای می گذارند.

آگراوالا می گوید ، در نهایت ، مشکل واقعی نه تنها مبارزه با فیلم های عمیق جعلی ، بلکه مبارزه با اطلاعات غلط است. در واقع ، او خاطرنشان می کند ، بسیاری از اطلاعات غلط از تحریف معنای آنچه واقعاً مردم گفته اند ناشی می شود.

او می گوید: "برای کاهش اطلاعات غلط ، ما باید سواد رسانه ای را ارتقا دهیم و سیستم های پاسخگویی را توسعه دهیم." "این می تواند به معنای قوانین منع تولید عمدی اطلاعات نادرست و عواقب نقض آنها و همچنین سازوکارهایی برای از بین بردن آسیب های ناشی از آن باشد."

توصیه شده: