Дипфейк – це алгоритм, що дозволяє моделювати поведінка і зовнішність людини на відеозаписі. Ім'я технологія отримала від поєднання deep learning («глибоке навчання») і fake («підробка»). В основі deep fake лежать горезвісні нейронні мережі, які працюють за генеративно-змагального принципу (generative adversarial network, gan). Алгоритми, закладені в базу програми, постійно змагаються один з одним у двох процесах: навчання на представлених фотографіях з метою створення реальної підміни особи на копії і виключення непридатних варіантів до тих пір, поки машина сама не почне плутати оригінал і копію.
У цій складній схемі полягає основна мета роботи deep fake – створення помилкових фотографій і відеоконтенту, в яких особа оригіналу замінюється іншим чином. Приміром, харизматичний президент сша дональд трамп цілком може стати на місце будь-якого одіозного лідера xx століття і нести в маси з трибуни відверту єресь. Зараз же в одному з згенерованих deep fake відео колишній президент барак обама дозволив собі нецензурні вирази на адресу дональда трампа.
Деякі ці твори представлені на відео і, чесно кажучи, багато з них виглядають дещо незграбно.
У нього завдання ще більш небезпечна – «змусити» зображення людини свої голосом вимовляти будь-який текст на будь-якій мові. Для цього потрібно всього 40-хвилинне відео зі звуком, в ході якого нейронна мережа навчиться працювати з голосом і мімікою людини, трансформуючи це для нових словесних виразів. Спочатку ідея, звичайно, позиціонується як блага: основним споживачем neural rendering стануть кіностудії, бажають скоротити час на зйомку акторських дублів. Проте всім відразу стало зрозуміло, що в недалекому майбутньому фактично будь-який користувач може у себе на ноутбуці генерувати видеофейки, від яких волосся встане дибки.
Другим відгалуженням «фейкової» програми стало додаток deepnude, здатне досить реалістично «роздягнути» догола на фотографії будь-яку жінку. У перші дні роботи сервісу обсяг звалилися запитів був настільки великий, що розробники в побоюванні судових позовів оголосили про його закриття. Але хакери зламали ресурс, і зараз deepnude може скористатися кожен. Звичайно, сервіс намагаються обмежити в доступі, але всі розуміють, що це лише тимчасова міра. Deep fake виявився непоганим інструментом в руках шахраїв.
Одну британську енергетичну компанію пограбували на 220 тис. Євро, коли на зв'язок з фінансовим відділом вийшов «клон» керуючого з німеччини. Він змодельованим голосом попросив терміново перевести гроші на рахунок в угорщині, і в бізнес-партнерів не було ні єдиного приводу не вірити абоненту. Звичайно, зараз масово і якісно підробляти відеоряд проблематично – державні регулятори постійно блокують ресурси з fakeapp і facefake, та й потужності комп'ютерів поки не дозволяють оперативно синтезувати відео.
Доводиться передоручати цю роботу віддаленим платним серверів, яким для роботи вимагають тисячі фотографій оригінальної особистості і «жертви».
Нейромережі допомагають акторам, які вже в роках, виглядати в кадрі на 10-20 років молодше – приміром, арнольду шварценеггеру і джонні деппу. В середньому в світі зараз генерується не менше 15-20 тис. Deepfake відео кожен місяць, велика частина яких з'являється в інтернеті. Російські програмісти намагаються йти в руслі світових трендів — компанія vera voice в липні 2020 року запропонує шанувальникам творчості володимира висоцького поспілкуватися з цифровою копією співака в театрі на таганці. Все йде до того, що відео - і фотодокази перестануть бути дієвими аргументами в судових розглядах, а глобальна система відеоспостереження виявиться марною тратою грошей.
Ніхто не буде довіряти кадрів з камер відеоспостереження. Де гарантія, що це не синтезована пустушка? у політичній пропаганді deep fake вже зараз стає найпотужнішим важелем впливу на думку виборців. Каліфорнія в жовтні 2019 році стала першим штатом, взагалі заборонив викладати в мережу ролики з політичними кандидатами за 60 днів і менше до виборів. За порушення цього закону ав 730 загрожує кримінальна відповідальність.
Зараз до цієї ініціативи приєднали ще кілька штатів, а січня 2020 року в китаї буде заборонено публікувати синтезовані deep fake фото і відео без особливої позначки. До речі, зараз одним з дієвих прийомів визначення підробки на око є відсутність природного моргання у синтезованих персонажів.
І не потрібно буде інсценувати хімічні атаки на мирних жителів, щоб санкціонувати масований ракетний удар по суверенному державі. Акти геноциду, наслідки застосування зброї масового ураження, що викликає і образлива поведінка перших осіб держави – весь цей deepfake букет в потрібній ситуації може виправдати в очах виборців початок чергової військової авантюри. А коли заговорять гармати і полетять ракети, ніхто особливо і не буде згадувати, з якого викривального відео почалася війна. Зараз немає однозначної відповіді, що робити з цим лихом. Кращі алгоритми, заточені на викриття deep fake, можуть гарантувати лише 97%-ву ймовірність.
В даний час кожен прогресивний програміст може взяти участь у deepfake detection challenge, який у вересні 2019 року анонсував Facebook. Призовий фонд в 10 млн. Доларів дістанеться тому, хто зможе розробити алгоритм, що дозволяє зі 100%-ної гарантією розпізнавати фейкові відео. Наскільки швидко буде відповідна реакція від підпільних розробників deep fake, залишається тільки гадати.
Новини
«Наш ворог – Росія»: Європа готова говорити з Москвою з позиції сили
9 грудня німецьке інформагентство dpa повідомило, що міністри закордонних справ країн — членів Євросоюзу домовилися про початок роботи з підготовки особливого режиму санкцій ЄС для фізичних осіб і організацій, відповідальних за по...
Посмішка Путіна і «пожежа» у Вашингтоні 2020 року. Яка тут зв'язок?
Проект «ЗЗ». Інші американські експерти переконані: «путінські спецслужби» мають в Білому домі «свого хлопця» і роздувають за його сприяння вогонь. У 2020 році США охопить «пожежа». І недарма похитнулося в свій час стан Трампа від...
Російська сила в Лондоні. Британія злякалася втручання Кремля у вибори
У Великобританії пройшли парламентські вибори. І в їх контексті в країні, як і в США, заговорили про можливе втручання Росії в британську політичну життя. Перемоги консерваторів на виборах їхні опоненти побачили «російський слід»....
Примітка (0)
Ця стаття не має коментарів, будьте першим!