Глибинні фейки. Як розпізнати та боротися із новою інформаційною загрозою

Глибинні фейки. Як розпізнати та боротися із новою інформаційною загрозою

Глибинні фейки. Як розпізнати та боротися із новою інформаційною загрозою

Додатки для камер на смартфонах стають витонченими та складними. Користувачі можуть подовжувати собі ноги, видаляти прищі, приміряти маски тварин — великі можливості для віртуальної корекції власної зовнішності. А віднедавна — можна навіть створювати фейкові відео, які виглядають дуже реально.

Технологія, що використовується для створення такого цифрового контенту, швидко стала доступною для широких мас, а сам його тип називають "глибинними фейками". Під цією назвою розуміють маніпулятивні відеоролики чи інші цифрові зображення, створені складним штучним інтелектом, завдяки якому сфабриковані зображення та звуки здаються справжніми.

Такі відео стають дедалі доступнішими й досконалішими. Ба більше — сьогодні їх може створювати не лише міфічна каста хакерів, а й звичайні користувачі, які володіють необхідними ресурсами і досить потужною технікою. Проблема в тому, що "глибинні фейки" викликають низку складних політичних, юридичних та етичних питань з приводу своєї природи та подальшого існування.

Хтось користується технологією виключно для розваги, але в руках досить цинічних і вмілих людей такий контент може перетворитись на серйозну зброю масового ураження свідомості. Можливо, найсерйознішу за весь час розвитку інтернет-технологій, адже йдеться про саму тканину реальності: якщо її підробити, то кому й у що буде вірити людство?

Читайте також: "Ілюзія вибору або хто керує інформацією у твоєму смартфоні"

То що ж таке ці "глибинні фейки"

Глибокі фейки. Як розпізнати та боротися із новою інформаційною загрозою

Спочатку розберімось із походженням терміну. В оригіналі ("deepfakes" з англійської) він складається з двох частин: "deep learning" ("глибинне навчання" — одна з найпрогресивніших галузей машинного навчання) та "fake" (слово, яке означає підробку). Простіше кажучи, "глибинні фейки" — це форма штучного інтелекту, результат машинного навчання. Чому останнє вважається найперспективнішою технологічною галуззю? Мова там про механізми й алгоритми, які можуть самостійно навчатися та ухвалювати рішення. І, звісно ж, очевидна небезпека цієї проривної технології фейків полягає у тому, що людина надто довірлива й емоційна, до того ж її критично-аналітичний апарат не зрівняється з тим, що вже вміють машини.

І це (в найгіршому випадку) може призвести до того, що люди віритимуть цьому контенту, віритимуть у його справжність і правдивість слів політика на підробному відео. Швидше за все, технологія може сильно похитнути світову політику та економіку, адже завдяки таким відео можна серйозно підірвати репутацію будь-якого політичного кандидата / власника корпорації чи компанії, "змусивши" його говорити чи навіть робити речі, які ніколи не відбувалися в реальному житті.

Як це працює

Глибокі фейки. Як розпізнати та боротися із новою інформаційною загрозою

Система глибинного машинного навчання може виробляти надзвичайно переконливу імітацію тієї чи іншої персони. Вона вчиться на матеріалі: їй згодовують докладні фотографії та відео людини, а система, дослідивши об’єкт з максимально різних кутів, відтворює її поведінку, голос і навіть специфічні рухи. Але тут немає поняття "кінцевий результат" — машинна система постійно вдосконалюється. Це відбувається за допомогою методу GANs (генеративно-змагальних мереж), суть якого, якщо дуже грубо, полягає в тому, що одна нейронна сітка "виробляє" продукт, а інша слідкує за виконанням та корегує результати. Таким чином завдяки постійному навчанню результати стають все досконалішими.

Тільки після багатьох внутрішніх перевірок система вважає роботу над черговим фейком завершеною. Є дуже жорстка і вичерпна стаття на цю тему у виданні MIT Technology Review, де докладн о описується, як це вплине (або "може вплинути", якщо зберігати наївний оптимізм) на суспільство. Якщо коротко, така технологія є ідеальною зброєю для постачальників фейкових новин, які зможуть таким чином впливати абсолютно на все — від цін на акції компаній до виборів у будь-якій країні світу.

Читайте також: "Гід сучасними професіями. Ким працюють ваші діти й онуки"

Як же вони виглядають? Продемонструйте

До уваги — перший "глибинний фейк", створений 12 років тому. Лице британського коміка Біла Хейдера майже непомітно перетворюється на обличчя голлівудського актора Тома Круза. Технологія ще недосконала, але виглядає це доволі моторошно.

Утім, справжня хвиля таких відеороликів здійнялася вже після 2017 року. Першими — як завжди — були виробники порнографічної продукції, які виявили необмежений потенціал технології. Потім пішла хвиля фейкових відеороликів, де сфабрикований колишній президент США Барак Обама каже речі, яких насправді ніколи не казав. Скажімо, обзиває Дональда Трампа.

У 2018-му набула поширення програма FakeApp, призначена для створення "глибинних фейків" на персональних комп’ютерах. І разом зі сплеском підробної порнографії зі знаменитостями, чомусь під роздачу попав актор Ніколас Кейдж, з яким також почали створювати багато відео.

Пізніше дісталося навіть Марку Цукербергу, який у підробному відео розповідав, що всю його силу — контроль над мільярдами людей — йому дала таємна організація Spectre. Пізніше виявилось, що це була художня акція, спрямована на рекламу однойменної виставки та критику діяльності великих технологічних компаній. Але "справжність" також спочатку не викликала в людей сумніву — і багато хто повірив у відео.

Як же відрізняти "глибинні фейки"? Є якийсь вихід?

Стаття Брукінгського інституту свідчить про те, що поки не все втрачено — і той самий штучний інтелект, який створює "глибинні фейки", можна навчити їх виявляти. Ситуація розвивається аналогічно з модою на біткойн та блокчейн-технології. Є люди, які мають корисливі намірі. А є спільнота дослідників, які вивчають саме способи виявлення "глибинних фейків" та шукають способи і можливості їхньої майбутньої регуляції доти, доки технологія не стане настільки доступною, що зможе поміститись у будь-який телефон. Останнє, до речі, певним чином уже відбулось.

Китайський мобільний додаток Zao працює з технологією deepfake і дозволяє замінити обличчя людини в будь-якому відео за кілька секунд. Раніше для реалізації такої технології було потрібно "навчати" нейромережу протягом кількох годин. Реєстрація в додатку вимагає введення номера телефону і завантаження фотографії свого обличчя.

Глибокі фейки. Як розпізнати та боротися із новою інформаційною загрозою

Потім користувачам пропонують вибрати з цілої низки відео знаменитостей, з якими можна "помінятись" обличчями. Zao ще на момент свого першого релізу (в серпні 2019 року) викликав у регуляторів побоювання щодо збереження персональних даних користувачів. Тому, наприклад, в офіційних магазинах Google Play та App Store його немає, але Zao можна спробувати завантажити і піратським шляхом. Звичайний користувач також може перевірити те чи інше відео, якщо має сумніви у його "справжності". Є низка візуальних аспектів, які вирізняють підробку від оригіналу, якщо багатократно збільшити зображення. Особливу увагу варто звертати на вуха й очі — вони можуть просто не вписуватись у пропорції та "логіку" нормального обличчя.

Занадто гладка шкіра, нерівномірне освітлення, відсутність тіні — все це також вказує на те, що перед нами фейк. Але проблема в тому, що людський зір, м’яко кажучи, не зможе конкурувати з технологією, яка постійно вдосконалюється, щоб виглядати якомога реалістичніше.

На щастя, цим питанням вже займаються великі компанії. Facebook і Microsoft висунули ініціативи з приводу створення колаборацій із найкращими університетами світу задля того, щоб зібрати найбільшу базу "глибинних фейків", дослідити їх, навчитись автоматично вирізняти поміж інших і швидко видаляти.

Читайте також: "Як зникнути з онлайну та знищити свої сліди в інтернеті"
Категорії
ПолітикаЕкономікаКультураСвітВідеоПодіїТоп дняПриродаРегіониСпортСтильДітиНаукаТехнологіїУрбаністикаЇжаДомашні твариниЛюди