Винищувач F-35, нібито збитий іранцями, — на цьому підробленому відео видно «клонованих ШІ» солдатів та прапори (Reuters/Stringer) Винищувач F-35, нібито збитий іранцями, — на цьому підробленому відео видно «клонованих ШІ» солдатів та прапори (Reuters/Stringer)

Штучний інтелект заповнює інтернет фейковими відео про війну

Технології

Особливістю цього конфлікту є значне зростання кількості контенту, згенерованого ШІ, який я мушу викривати, – каже Тал Хагін, старший аналітик компанії Golden Owl, якого цитує «Wired».

– ШІ вже настільки розвинутий, що здатний ввести в оману журналістів, а користувачі можуть створювати такі матеріали без жодних наслідків.

Без регулювання масштаб збитків буде зростати.

Війна США та Ізраїлю з Іраном, на думку експертів, однозначно перевершила війну в Україні за кількістю фейкових матеріалів, згенерованих ШІ. Але й за їхньою якістю, що робить їх дедалі важчими для відрізнення від оригінального контенту.

Деякі з фейкових матеріалів досягають величезного охоплення.

Зображення, що відображає збиття американського бомбардувальника B-2 Іраном, переглянуло на X понад мільйон осіб, перш ніж його було видалено.

Фотографії нібито полонених солдатів Delta Force мали понад 5 млн переглядів.

«The New York Times» ідентифікувала понад 110 унікальних матеріалів, згенерованих ШІ, за останні два тижні.

Експерти звертають увагу, що у 2026 році проблемою є вже не лише статичні зображення, а й так звані «shallowfakes» — автентичні записи з попередніх конфліктів (наприклад, із Сирії чи Ємену), які за допомогою ШІ піддаються швидкій постпродакшн-обробці: цифровим способом змінюються позначення підрозділів, погода чи звук пострілів, щоб вони відповідали поточним повідомленням із Перської затоки.

Фейкові матеріали зображували, зокрема, переляканих ізраїльтян у Тель-Авіві, іранців, які оплакують жертв, або американські кораблі, що зазнали ракетних і торпедних ударів.

Загалом ці матеріали набрали мільйони переглядів у таких сервісах, як X, TikTok і Facebook, а також широко поширювалися в приватних месенджерах по всьому світу.

Все легший доступ до інструментів, що генерують зображення та відео, призвів до того, що фейкові матеріали стають дедалі поширенішими та реалістичнішими. Масштаби дезінформації настільки великі, що це призводить до параної, в якій піддаються сумніву навіть справжні записи.

Гучний резонанс викликала офіційна промова прем’єр-міністра Беньяміна Нетаньяху, яку в мережі масово визнали фейком.

Інтернет-користувачі помітили у політика шість пальців, що прем’єр згодом мусив особисто спростувати, показуючи руку перед камерами.

Фейки, створені за допомогою штучного інтелекту, використовуються не тільки для заробітку завдяки збільшенню охоплення, але й для поширення пропаганди.

За даними аналітиків Institute of Strategic Dialogue, мережі акаунтів, пов’язаних з іранським режимом, публікують зображення, на яких, наприклад, ортодоксальні євреї керують американськими солдатами або святкують їхню смерть.

– Навіть у порівнянні з початком війни в Україні ситуація сьогодні зовсім інша, – каже Марк Оуен Джонс із Північно-Західного університету в Катарі.

– Ймовірно, ми бачимо більше контенту, пов’язаного з ШІ, ніж будь-коли раніше.

У соціальних мережах модерація є недостатньою.

Платформа X швидко була затоплена дезінформацією: тисячі акаунтів масово почали публікувати фальшиві та підроблені записи, а Grok регулярно надавав неправильні відповіді при спробах верифікації контенту.

Такі матеріали поширюють також преміум-акаунти з синіми галочками, а також іранські чиновники, які хочуть перебільшити масштаби руйнувань по той бік Ормузької протоки.

Президент США Дональд Трамп у неділю звинуватив Іран у використанні штучного інтелекту як «зброї дезінформації» для створення фальшивого образу своїх військових успіхів та підтримки.

– ШІ може бути дуже небезпечним, ми маємо бути з ним дуже обережними – сказав Трамп журналістам на борту Air Force One, незабаром після допису на своїй платформі Truth Social, у якому він звинуватив західні ЗМІ у «тісній координації» з Іраном у поширенні «фейкових новин», згенерованих ШІ.

Трамп, який раніше сам неодноразово поширював дезінформацію, зазначив, що ЗМІ, які поширюють таку інформацію, слід звинуватити у зраді.

Він написав, зокрема, що Іран показав «камікадзе-човни», яких не існує, і сфабрикував успішну атаку на авіаносець USS Abraham Lincoln, якої не було.

Дослідники також зазначають, що модель монетизації платформ, яка залежить від активності користувачів, посилює мотивацію до публікації сенсаційних і фейкових матеріалів.

Наприклад, один із преміум-акаунтів опублікував згенероване штучним інтелектом відео, на якому горить хмарочос Бурдж-Халіфа в Дубаї, та проігнорував прохання позначити матеріал. Відео набрало понад 2 млн переглядів.

Як же не дати себе обдурити?

Ключовим є аналіз деталей: у відеозаписах варто звертати увагу на неприродний ритм моргання очей або відсутність синхронізації руху губ зі звуком.

У кадрах з фронту підступними бувають тіні – ШІ часто генерує освітлення, що суперечить законам фізики, наприклад, тіні, що падають у різних напрямках в одній сцені, або неприродно «розмиті» фони в місцях, де повинні бути чіткі технічні деталі військової техніки.

Надзвичайно часто з’являються також прапори.

Платформа X оголосила, що на 90 днів призупинятиме участь у програмі заробітку для авторів, які публікують матеріали, створені ШІ, без позначення їх як продукт штучного інтелекту.

– Подальші порушення призведуть до постійного блокування облікового запису – попередив керівник продукту X Нікіта Бієр.

Проблема в тому, що при нинішній швидкості цифрового обігу інформації «життєвий цикл» фейку становить лише 48 годин — після цього часу шкода репутації вже є незворотною, а блокування заробітку постфактум не відлякує державних троль-ферм, які діють з політичних, а не комерційних цілей.

Проблема стосується не лише X.

Наглядова рада Meta розкритикувала спосіб маркування контенту, створеного ШІ, визнавши його недостатнім з огляду на масштаби явища.

– ШІ стає інструментом війни, а алгоритми для виявлення діяльності ШІ все ще недосконалі – попереджає аналітикиня NewsGuard Ісіс Блаше.

Хоча до матеріалів часто додають «водяні знаки», їх легко видалити або приховати.

Лише невелика частина відеозаписів, проаналізованих дослідниками, містила такі позначки.

До справи долучилася глобальна мережа фактчекеров – від Бразилії до Індії, яка ідентифікує та повідомляє про численні фейкові матеріали ШІ щодо війни.

Поки що це, однак, боротьба з вітряками.

Бартош Попадяк, польський аналітик з верифікації контенту в Центрі дезінформації NASK

У зв’язку з війною в Ірані у польськомовному інформаційному просторі з’явилося кілька десятків маніпульованих графічних матеріалів та відео, ідентифікованих лише в рамках діяльності Центру аналізу дезінформації.

Наразі ми фіксуємо, що найчастіше за допомогою штучного інтелекту генеруються записи, які мають на меті перебільшити збитки, завдані Іраном Ізраїлю, США та арабським державам у регіоні.

Це переважно відео, що показують неправдиві вибухи та їхні катастрофічні наслідки.

Серед них також були матеріали, що зображують нібито напади на владу Ізраїлю, зокрема на прем’єр-міністра Беньяміна Нетаньяху.

Розвиток технологій та дедалі легший доступ до інструментів для створення діпфейків суттєво впливають на швидкість їхнього створення.

Однак матеріали мають різну якість.

У цьому конкретному випадку більшість з них можна оцінити як такі, що піддаються перевірці навіть звичайними користувачами після ретельного вивчення або за допомогою базових інструментів верифікації.

З’являлися також складніші випадки, як-от той із прем’єр-міністром Нетаньяху, але через медійність справи їх швидко перевірили не лише інтернет-користувачі, а й експерти.

Діпфейки з війни в Україні, подібно до сучасних, часто зображували поле бою та нібито величезні втрати українців.

Найчастіше вони мали низьку якість, найімовірніше, з метою ускладнення перевірки правдивості, яка в таких випадках часто ґрунтується на перевірці характерних символів на уніформі чи військовому спорядженні.

В обох випадках пересічний користувач може мати проблеми з розпізнаванням такого контенту, тому ми закликаємо повідомляти про нього до Центру аналізу дезінформації або Відділу аудіовізуальних аналізів та біометричних систем NASK.

З метою дезінформації також використовуються реальні записи з інших збройних конфліктів, розміщені в контексті війни між США та Ізраїлем і Іраном, щоб представити її у певний, маніпульований спосіб.

Такий вид дезінформації також використовувався у випадку війни в Україні і є поширеною схемою поширення фальшивих матеріалів.

Джерело: rp.pl

🌍 Як світ пише про Україну?

Ми збираємо новини з Reuters, BBC, Bloomberg та інших світових ЗМІ.
Коротко, факти, без фейків та зайвого галасу.

👉 Підписуйтесь у Telegram