Нещодавно п’ять інформагентств світу, серед яких Reuters, Getty Images і Associated Press, вилучили фотографію принцеси Уельської Кейт з дітьми, оскільки виявили на світлині ознаки цифрової маніпуляції — неприродне положення руки її доньки, принцеси Шарлотти. Наскільки можна фотошопити знімки для медіа, в яких випадках дозволено застосовувати зображення, згенеровані штучним інтелектом, як розпізнати фейки та маніпуляції зі світлинами — розповідає Суспільне.
Не перший випадок у королівській родині
Це фото принцеси Уельської — перше, яке Кенсінгтонський палац опублікував після її операції в січні. На ньому, окрім Кейт, — троє їхніх з принцом Вільямом дітей: десятирічний Джордж, п'ятирічний Луї та восьмирічна Шарлотта. У останньої інформагентства виявили на фотографії непослідовність у положенні руки. Згодом принцеса Уельська перепросила за "плутанину" зі знімком і додала, що іноді, як і багато фотографів-любителів, експериментує зі світлинами.
Видання AP, яке першим вилучило фото, пояснило: "Хоча не було припущень, що зображення є підробкою, AP вилучила світлину з обігу, оскільки вона не відповідала стандартам фотографій. Кенсінгтонський палац відмовився від коментарів".
"Очевидно, вирішили, що дехто зайшов занадто далеко [з редагуванням фото], і відкликали фотографію", — прокоментував вилучення фото інформагенціями королівський фотограф Ян Ллойд. Також він пояснив, що це було не першим редагуванням світлин королівською родиною. До прикладу, на різдвяній листівці принца і принцеси Уельських у грудні 2023 року у принца Луї була нібито зайва нога та відсутній палець. На різдвяне фото звернули увагу користувачі соцмереж, це описали ЗМІ, однак, наприклад, AP та Reuters не коментували цей кадр, а PetaPixel проаналізував світлину і зробив висновок, що знімок справжній.
Як визначити фейкове зображення
Індійські дослідники в Міжнародному журналі наукових публікацій та оглядів дають декілька порад:
- Пропустити картинку через систему зворотного пошуку зображень, наприклад, Google Images або TinEye. Якщо зображення використовується в декількох місцях, це може бути ознакою, що воно не є оригінальним або містить маніпуляції.
- Кожне цифрове зображення містить метадані з інформацією про те, коли й де його зробили, а також тип використаної камери чи пристрою. Можна перевірити їх. Якщо є розбіжності — фото змінювали.
- Можна використати програми, які здатні виявити невідповідності в освітленні або кольорі (наприклад, по-різному падають тіні). Це теж свідчить, що зображення змінювали.
- Якщо є можливість, слід віднайти першоджерело зображення та зв'язатися для уточнень з людиною, яка його розмістила.
"Усе залежить від того, де опублікований фейк, чи це інформаційний вкид і наскільки він є поширеним. Якщо якийсь фейк побачило 3-5 людей, немає сенсу його спростовувати, бо спростування побачать більше людей, аніж сам фейк", — говорить засновниця проєкту "Нота єнота", фактчекерка Альона Романюк, та додає:
"Обманути можна будь-кого, і немає людини, яка була б на 100% стійкою до впливів фото- або відеофейків. Усі фейки створені саме на емоційні теми, які зачіпають суспільство. Людина на емоціях не аналізує критично те, що бачить, а просто поширює". Основна порада від Романюк, як вберегтися від цифрових маніпуляцій: вичекати кілька годин і нічого не поширювати. Часто за цей час, зазвичай, стає зрозуміло, чи правдиве зображення, чи ні.
Експертка зауважує, що немає універсального підходу в дослідженні фейків, тому перевіряльники щоразу обирають стратегію відповідно до типу контенту: "Перше, що ми робимо, якщо в нас фото — максимально збільшуємо світлину і намагаємося вдивитися, що там є, що може наштовхнути на додаткові пошуки, верифікацію — тобто дати нам ще якусь інформацію. Відео ми дивимося на уповільненні у 2-4 рази, це дозволяє роздивитися деталі".
Як журналістам можна редагувати фото
В різних країнах існує близько 400 етичних кодексів журналіста, але основні принципи їх роботи, зокрема з зображеннями, повторюються. Наприклад, правила Associated Press дозволяють лише "незначні коригування за певних обставин": обрізку фотографії, тонування та корекцію кольору, а також видалення пилу, який був на матриці камери.
Згідно зі стандартами Товариства професійних журналістів та Міжнародної федерації журналістів, автор має вказувати джерело будь-якого контенту. Не можна умисне спотворювати факти або контекст — це стосується і візуалу. Якщо використовуються ілюстрації та відтворення, а не автентичні фото, про це так само треба попереджати.
"Медіамейкер" пояснює, що дозволяється блюрити на фото для ЗМІ елементи, що можуть комусь зашкодити. Наприклад, відкривати чиїсь персональні дані. Блюрять також мову ворожнечі (наприклад, на банерах), обличчя дітей, чутливий контент (як-от розкладені тіла), відверті зображення, імовірні знаряддя для самогубства. Також рекомендують затушовувати обличчя свідків чи підозрюваних й обличчя людей, які просили про конфіденційність.
Щодо обробки — можна скоригувати освітленість на фото або різкість чи контраст, але не так, аби сутінки видавалися днем (це спотворить час доби, про який може йтися в публікації). Не можна видаляти якісь елементи з фото (дроти, сміття, капці, димарі).
Зображення та штучний інтелект
Щоб вручну відредагувати фото — прибрати складку на одязі чи висвітлити знімок — потрібно мати певні навички. Але з розвитком штучного інтелекту (ШІ) стало можливим мало не в один клік змінити оригінальне фото чи відео, або згенерувати власне. ШІ може допомагати в роботі, але також він відкрив дорогу до великої кількості фейків.
Науковиця Олена Васьківська з НАУ наводила приклад, коли у 2020-му на вебпорталі Microsoft Network (MSN) програма Штучного інтелекту (ШІ) обирала фото для матеріалу. Замість співачки Джейд Тірволл із гурту Little Mix ШІ використав фото її колеги по групі Лі-Енн Піннок. Читачі тоді розкритикували Microsoft.
Видання The Lede згадує інший випадок, коли в тому-таки 2020 році британський канал Channel 4 оприлюднив відеодипфейк. Там королева Єлизавета II проголошує слово до Різдва, а потім танцює на столі. Це мав бути святковий жарт, але глядачі почали скаржитися на канал: британський регулятор ЗМІ зафіксував понад 300 звернень.
В Україні теж були подібні випадки. Наприклад, нещодавно спливло стеження за журналістами "Бігус.інфо". Приховані зйомки опублікували на YouTube-каналі ресурсу "Народна правда". Фактчекерка Альона Романюк показала, що фото головної редакторки цього видання — найімовірніше, створене за допомогою ШІ:
"Якщо його збільшити й подивитися на зіниці — вони дивної форми, зовсім не круглої. Також щось дуже дивне з сережками: вони не входять у мочки вух і якось розпливаються. Це одна з ознак того, що світлина згенерована штучним інтелектом".
16 січня 2023-го у Twitter (тепер — Х) Верховна Рада України опублікувала ШІ-зображення дитини нібито на фоні зруйнованого дому у Дніпрі, коли 14 січня у багатоквартирний будинок міста влучила російська ракета. Після критики ВР видалила допис.
Альона Романюк розповідає про ще один випадок цифрових фейків в Україні. Кілька місяців тому, коли головнокомандувачем ЗСУ ще був Валерій Залужний, росіяни запускали діпфейк з його зображенням, де Залужний звинувачує Володимира Зеленського у втратах на фронті, у загибелі свого помічника і стверджує, що президент України збирається вбити і його самого та "здати країну". "Частина українських телеграм-каналів це поширила, що дуже дивно виглядало. Цей діпфейк — це ліпсінк. Коли береться справжнє відео, на нього накладається згенерований за допомогою штучного інтелекту голос", — говорить Романюк.

Як у журналістиці можна використовувати ШІ
Не всі матеріали, створені з допомогою ШІ, є дезінформацією або містять неточності. Фінське видання Yle використовує штучний інтелект для перекладу текстів. У Forbes він допомагає оптимізувати заголовки, генерувати описи та рекомендувати зображення для статтей. Assosiated Press використовує ШІ для звітів, а The Washington Post використовувала інструментарій штучного інтелекту для текстів про Олімпійські Ігри та вибори.
ШІ також допомагає додавати метадані, опис до фотографій та візуальних історій — для архіву. Якщо журналіст використовує ШІ для зображень, має обов’язково регулювати результат, адже саме людина відповідальна за можливу дезінформацію чи те, що в читачів буде хибне уявлення про щось, говорить Олександр Борняков, заступник міністра цифрової трансформації, керівник проєкту Дія.City.
Також потрібно маркувати всі зображення, що створені з допомогою ШІ.
У серпні 2023 року AP опублікувало рекомендації, як журналістам працювати з використанням штучного інтелекту, зокрема:
- будь-який результат генеративного інструменту ШІ "розглядати як неперевірений вихідний матеріал";
- не змінювати жодних елементів фотографій, відео- та аудіоматеріалів і не застосовувати для цього ШІ;
- не використовувати зображення, створені ШІ, для ілюстрування (однак, якщо зображення є темою новини — слід чітко це позначити);
- не розміщувати конфіденційну або делікатну інформацію в інструментах ШІ;
- уникати випадкового використання контенту ШІ, створеного для поширення дезінформації — "журналісти повинні виявляти таку ж обережність і скептицизм, як і зазвичай". Якщо журналісти мають будь-які сумніви щодо автентичності матеріалу, вони не повинні його використовувати.
Фактчекерка Альона Романюк вважає, що журналісти не мають застосовувати ШІ для ілюстрування реальних подій, проте можуть використовувати штучний інтелект, щоб пояснювати якісь складні явища у природі, відтворювати моделі. Можна працювати з ШІ для культурних, мистецьких напрямків. Водночас важливо вказувати, що це зроблено за допомогою штучного інтелекту.
Переваги використання ШІ-зображень у журналістиці
За своєю суттю ШІ — це інноваційна технологія, яка покладається на машинне та глибоке навчання. Іншими словами, чим більше ви його використовуєте, тим точнішим буде результат. В медіа ці технології можуть не тільки множити фейки, а й бути корисними.
ШІ прискорює виробництво контенту та заощаджує людські ресурси й час, тож зростає продуктивність — можна лишити на ШІ роботу з допоміжними, технічними форматами, а більше зосередитися власне на репортажах, текстах. Штучний інтелект також може стати економічно ефективним рішенням для невеликих видань, які не можуть дозволити велику команду дизайнерів. За допомогою нього, зокрема, можна створювати інфографіку. Крім цього, ШІ здатен візуалізувати текст для людей з проблемами зору.
Більш доступними стають і цифрове мистецтво та дизайн. Наприклад, контент-мейкери можуть намалювати книжкового персонажа для рецензії або показати ландшафт позасистемної планети на основі наукового звіту. Ще одна потенційна функція ШІ — створити зображення для якоїсь чутливої новини, як-от насилля проти дітей. Таким чином зберігається конфіденційність реальних дійових осіб.
The Washington Post і Reuters уже використовували ШІ. Наприклад, під час виборів у США 2020 року WP проілюструвала матеріал реалістичними зображеннями кандидатів на основі величезних наборів даних їхніх фотографій. У Reuters за допомогою ШІ пояснювали складні наукові концепції, пов’язані з COVID-19 під час пандемії.
"В будь-якому разі перед журналістами та медіа стоїть проблема, що треба визначити правила використання штучного інтелекту в їхній діяльності. Вони на сьогодні ще не врегульовані", — говорить Альона Романюк.