Втрати російських окупантів
1 177 370

ОСОБОВИЙ СКЛАД

11 396

ТАНКИ

430

ЛІТАКИ

347

ГЕЛІКОПТЕРИ

Андрій Коваленко
АНДРІЙ КОВАЛЕНКО

Керівник Центру протидії дезінформації РНБО України

Всі матеріали автора
Всі матеріали автора

Ми йдемо до світу, де будуть мільйони реальностей. І той, хто контролюватиме штучний інтелект, – керуватиме свідомістю

Штучний інтелект та інформаційна війна майбутнього. Ми щодня працюємо з АІ – використовуємо самі й бачимо, які тактики застосовує ворог. Але дивитися на питання точно потрібно ширше, ніж наша війна з Росією.

У Китаї уряд зобов'язав усі AI-компанії вбудовувати механізми "ідеологічного захисту". У результаті моделі, як Ernie від Baidu, цензурують згадки про Тяньаньмень або Тайвань ще на рівні запиту.

Росія тестує нейромережі, здатні в реальному часі генерувати фейкові новини, імітувати голоси українських військових і створювати діпфейк-відео "свідчень" для вкидів через соцмережі.

Це вже не теорія, а практика, яку ми бачимо щодня.

У США інвестують мільйони доларів у проєкти типу OpenAI, Anthropic і DARPA's AI Next.

Мета: створити системи, які ідентифікують інформаційні атаки до того, як вони почнуть ширитися.

Є багато публічних розробок, але ще більше – закритих для пабліку, які використовуються у військових цілях.

Ось вам сценарій найближчих років.

Уявімо 2027 рік. Під час гібридної ескалації РФ запускає тисячі AI-ботів, які імітують українських волонтерів, лікарів, ветеранів. Вони поширюють "відчай", "зраду", "корупцію", усе з гіперреалістичними фото й відео, створеними генеративними моделями, а також тексти, цілі проєкти в соцмережах, включно з підлітковим і дитячим контентом, де РФ зараз теж активно працює.

Китай паралельно працює в Африці та Південній Азії, просуваючи антизахідні наративи через локалізовані AI-моделі, які говорять місцевими мовами й адаптовані до культури.

Щоб адаптувати модель до конкретної культури, достатньо не так багато зусиль – парсинг інформації із соцмереж, постів ЛОМ, коментарів, контенту – усі ці масиви завантажуються й перетворюють модель на клон громадянина конкретної держави в інформаційному просторі, учать мислити, учать ментальності.

У відповідь Захід створює "цифрові лінії фронту" – ШІ-системи, які 24/7 моніторять інфопростір, виявляють бот-мережі, перекручування фактів, діпфейки. Але проблема: навіть правду вже складно відрізнити, бо і її стилізують під фейк.

Ми йдемо до світу, де не буде "однієї правди", а будуть мільйони фрагментованих реальностей. І той, хто контролює алгоритм, – контролює свідомість.

BigTech компанії, що розробляють АІ, матимуть дуже велику владу. Але не тільки вони.

В Україні це питання виживання. Бо наш фронт – не лише географічний, а й інформаційний.

І, звісно ж, у використанні ШІ-технологій ми маємо й будемо одними з лідерів, як технологій протидії, так і технологій, які дозволяють захищати інтереси держави в інформаційних зонах, де вони присутні.

Джерело: КOVALENKO / Telegram

Опубліковано з особистого дозволу автора

Блог відображає винятково думку автора. Редакція не відповідає за зміст і достовірність матеріалів у цьому розділі.
Як читати "ГОРДОН" на тимчасово окупованих територіях Читати