Не вір очам своїм. Як deepfake змінює нашу реальність

Не вір очам своїм. Як deepfake змінює нашу реальність

Автор:

Фальшиві люди роблять фальшиві заяви, які призводять до реальних наслідків. Технологія перетворюється на зброю у політичних війнах. Новий цифровий монстр вибиває з під ніг реальність. Ми втрачаємо орієнтири. І не знаєм чому і кому вірити. Deepfake – нова зброя у гібридній війні. Наслідки фейків вимірюються людськими життями.

Астрономічний алгоритм

Життя стає складнішим. Людство сподівається, що технології полегшують буття. Проте кожна нова технологія, окрім явної допомоги, несе нові загрози. І в більшості випадків розмір цих загроз складно прогнозувати. Так тапилося і з технологією generative adversarial network (GAN) – генеративні змагальні мережі.

Підозрюю, що ви перший раз чуєте цю назву. Проте повірте, за останні роки ви не раз ставали жертвою цієї технології. Цей алгоритм машинного навчання використовують для покращення зображення. Він задумувався як помічник для астрономів – щоб краще роздивитися зірки на знімках із супутників. Але трапилося як і зі всіми технологіями: люди знайшли їм застосування для сексу або війни. 

Deepfake, в основі якого якраз і лежить алгоритм GAN, почали використовувати саме для створення порно-відео. Якусь знаменитість накладали на реальні порнографічні зображення і в результаті отримували скандальні відео, на яких зірка “Зоряних війн” раптом стає зіркою відео для дорослих.

Deepfake-порно вперше з’явилося в інтернеті наприкінці 2017 року, коли користувач платформи Reddit почав публікувати ролики, зроблені ним на своєму домашньому комп’ютері. 

І тут понеслося.

Фальшиві політики

Окрім лавини фальшивого порно з зірками вже на початку 2018 почали з’являтися діпфейки з політиками. Спочатки це було просто “по приколу” – підмінити обличчя Ангели Меркель обличчям Трампа, або замінити обличчя аргентинського президента Маурісіо Макрі на Гітлера. 

Дуже смішно. До певної межі. Допоки ти розумієш що це жарт. Але технологія покращується й удосконалюється і вже одного разу ти бачиш відео, на якому колишній Президент США Барак Обама називає свого наступника Дональда Трампа “засранцем”. Шокуюча заява. Але не справжня. Це був діпфейк, зроблений з метою показати загрозу, яку несуть нові технології.

Правдиві слова, сказані фейковим Обамою звучать як жахливе пророцтво:

“Ми вступаємо в епоху, коли наші вороги можуть змусити будь-кого сказати що завгодно в будь-який момент часу”.

Фальшиві люди роблять фальшиві заяви, які призводять до реальних наслідків. Технологія перетворюється на зброю у політичних війнах. 


Уявіть собі як легко можна зруйнувати репутацію політика створивши діпфейк, в якому він робить гучну заяву або веде себе провокативно? 

Хоча навіщо уявляти. Це вже зроблено. Діпфейки з нібито Ненсі Пелосі напідпитку або ж Байденом, що засинає на інтерв’ю, губиться і втрачає дар мови, вже були застосовані як інструмент у передвиборчій війні опонентів. 

Не вір очам і вухам своїм

Це має стати лозунгом нового цифрового світу. 


Раніше політики маніпулювали словами: виривали з контексту чужу мову, перетрактовували її на свій лад. А тепер вже цього не потрібно робити. Опонента можна вбити простим натисканням клавіш – створити deepfake, у якому можна вкласти у вуста спікера будь-які слова. І це буде виглядати абсолютно правдоподібно. Бо люди вірять своїм очам і вірять побаченому у відео.

Наслідки таких фейків непередбачувані. Сьогодні це лише програш на виборах, а завтра це може почати війну між країнами чи внести розбрат у альянси та домовленості. Наслідки фейка стануть вимірюватися людськими життями.

На війні і в коханні всі засоби працюють. Deepfake почав з порно, а закінчується війною. Перша Гібридна світова війна, яку розв’язала Росія проти України не гребує жодними засобами, в тому числі й діпфейками. До вже традиційної війни ботоферм, фейкових новин та дезінформації додалася новинка – deepfake. 


Фальшива капітуляція

Так, 16 березня 2022 року, на третьому тижні повномасштабного російського вторгнення, у мережі опублікували відео, в якому Президент Володимир Зеленський закликає українців скласти зброю і капітулювати.

Наслідки цього відео могли би бути катастрофічними. Однак цього не трапилося. Центр стратегічних комунікацій та інформаційної безпеки ще 2 березня опублікував попередження про можливість такого вкиду. Українська сторона готова була до такого фейку, Президент того ж дня записав відео-відповідь та оперативно відреагував на спробу інформаційної операції ворога.

Facebook, YouTube and Twitter також відрегували і швидко видалили фейкове відео зі своїх платформ.

Попереджений, значить озброєний. Цього разу все обійшлося. Але так буде не завжди.

25 червня 2022 року мережу сколихнула новина про те, що мери Берліна та Мадрида спілкувалися відеозв’язком з фейковим мером Києва. Діпфейковий Віталій Кличко цікавився життям українських біженців у Берліні, зокрема виплатою соціальної допомоги. Мер Берліна Франциска Ґіффай 15 хвилин спілкувалася з фейковим Кличко, поки не запідозрила підміну, коли Кличко попросив посприяти проведенню гей-параду в Києві. І все це сталося напередодні такого важливого Мадридського саміту НАТО.

Хані Фарід, професор Каліфорнійського університету в Берклі, який є експертом у криміналістиці цифрових медіа, випадок з діпфейком Зеленського прокоментував так:

“Я підозрюю, що те що ми побачили лише вершина айсберга. Це забруднює інформаційну екосистему, і кидає тінь на весь контент, який і так має справу зі складним “туманом війни”. Наступного разу, коли президент виступить на телебаченні, деякі люди можуть подумати: «Зачекайте, а це реально?»”

Deepfake можуть стати новими “чорними лебедями”. Адже наслідки, які вони можуть принести практично неможливо передбачити допоки вони не настануть. 

Deepfake ставлять під загрозу довіру до інформації. Раніше звичайні фейки підривали довіру до джерел інформації: перш ніж вірити повідомленню, треба було перевірити його джерело, надійність джерела верифікувала інформацію. Бачиш виступ офіційної особи – автоматично віриш сказаному. Проте з діпфейками це не працює більше. Бо не вір очам своїм. Будь-хто може сказати будь-що і це буде виглялати як правда. Підривається довіра до всієї інформації.

Deepfake – нова інформаційна зброя

Експерти Associated Press стверджують, що технологія deepfake стане найсучаснішою інформаційною зброєю. З ними погоджуються й у CNN: хоча технологія deepfake ще недостатньо розвинена, щоб підробити масштабні історичні події чи конфлікти, вони стурбовані тим, що сумніви, посіяні одним переконливим deepfake, можуть назавжди змінити нашу довіру до аудіо та відео. 

Діпфейк розглядають як загрозу самій демократії, адже вона підриває основи суспільного договору, що базується на довірі. Як можна далі вірити комусь, якщо ти навіть не можеш вірити власним очам?

Серйозність проблеми така, що боротьбою з нею займаються на найвищому державному рівні. Поява технології діпфейк спонукала членів Конгресу США вимагати офіційного звіту від директора національної розвідки. Сенатор Марко Рубіо стурбований глобальними наслідками цієї технолоії після того, як переконливий діпфейк став вірусним, перш ніж його виявили. 

У 2018 році Агентство передових оборонних дослідницьких проектів (DARPA) профінансувало проект, який займається аналізом відео, аудіо та зображень, згенерованих штучним інтелектом, а також автоматизованих інструментів для виявлення цих діпфейків. У 2020 році DARPA створило програму Media Forensics (MediFor), метою якої є розробка технологій для автоматичного оцінювання цілісності зображення чи відео. Але як то буває зі всіми технологіями, поки розробляється протидія діпфейкам, самі діпфейки удосконалюються так, що не встигають їм протидіяти. 


Фронт спротиву

Поки тривають технологічні перегони, політики також намагаються створювати механізми протидії діпфейкам. 

Протягом останніх років американські законодавці внесли кілька законів, покликаних захисти від діпфейків (2018 – Закон про заборону шкідливих діпфейків, 2019 – Закон про підзвітність діпфейків). В окремих штатах також прийняли свої антидіпфейкові закони. Приміром в Каліфорнії закон Асамблеї № 730 забороняє розповсюдження шкідливих діпфейків аудіо- чи візуальних засобів масової інформації, націлених на кандидата, який балотується на державну посаду протягом 60 днів виборчої кампанії. 

В ЄС також намагаються на законодавчому рівні прописати протидію діпфейкам. Поки що це знаходиться на стадії пропозиції до Регламенту, що встановлює гармонізовані правила щодо штучного інтелекту. Тому реальною протидією займається громадське об’єднання Content Authenticity Initiative (Ініціатива за аутентичність контенту), яка розробляє стандарти прозорості цифрового контенту.

Велика Британія діпфейки сексуального характеру кваліфікує як домагання (harassment), але є ініціатива криміналізувати всі діпфейки і внести його в перелік злочинів, що мають кримінальну відповідальність.

Схожий підхід і в Китаї. З 2020 року діпфейки необхідно маркувати як штучно створені фальшивки, інакше це буде розгладатися як правопорушення.

В Україні навіть мови немає про такі механізми. Поки що ми реагуємо на ці загрози у ручному режимі і по ситуації. В умовах гібридної війни до питань інформаційнї та цифрової безпеки слід ставитися більш серйозно. Особливо з огляду на нашу активну діджиталізацію. Крім явних плюсів вона несе й багато мінусів. І про більшість з них ми навіть не думаємо.

Як бачимо, держави намагаються запобігти розповсюдженню діпфейків шляхом кримінального покарання за їх створення чи розповсюдження. Проте це не знімає самої проблеми діпфейків. Це лише боротьба з симптомами, а не пошук ліків від самої хвороби.

Що робити з цим новим цифровим монстром поки достеменно не знає ніхто. Це новий виклик для держав, суспільств та окремо взятої людини. Нові технологічні загрози народжуються швидше, ніж ми встигаємо реагувати на них. Тільки нещодавно ми ламали списи у війнах за чи проти клонування і не змогли знайти відповідь на цей виклик. А тут з’явилася нова загроза штучного інтелекту з його скринькою Пандори.

Світ стає все складнішим, а ми хочемо все простіші рішення. У цьому протиріччі ховається демон нашого часу. Все складно, а ми прагнемо простоти. Десь у пошуках золотої середини ми блукаємо новими цифровими реальностями. Куди нас заведе ця стежка невідомо – чи до нової цифрової диктатури чи до цифрового апокаліпсису й анархії.

Автор

  • Ярослава Бірюк

    Засновник АЦ “Хімера”

    Закінчила факультет Дизайну Київського національного університету технологій та дизайну. Сертифікований спеціаліст з креативності – Professional in Creativity Certificate by UniCert®_GmbH. Понад 15 років досвіду роботи в ІТ та креативних індустріях.
    Член оргкомітету iForum ‒ найбільшої офлайн-конференції в Україні, присвяченій інтернету.

    Сфера наукових інтересів:
    Міжнародні відносини, інновації та технології, Problem Solving та прийняття рішень, ідеології та стратегеми, інформація та пропаганда, глобальні виклики і загрози.



    Переглянути матеріали


Обговорити публікацію можна в нашому телегам-чаті:


XIMERA не несе відповідальності за наслідки публікації та використання матеріалів, розміщених на сайті в інших джерелах. Думка авторів публікацій, коментарів, розміщених на наших сторінках, може не збігатися з думками і позицією Центру.
Цитати подано зі збереженням оригінальної орфографії та пунктуації.