Штучний інтелект у лапах кремлівських ляльководів: рф перетворює чат-ботів на своїх пропагандистів

Колаж Сергія Поліщука / АрміяInform

Уявіть собі: ви запитуєте свого улюбленого чат-бота про останні події в Україні, а він, з виглядом всезнаючого експерта, починає розповідати вам про секретні біолабораторії США на українській території або про те, як президент Зеленський заборонив соціальну мережу Дональда Трампа. Звучить як сюжет поганого шпигунського роману? Ні, це реальність сучасного інформаційного простору, де російська пропаганда знайшла новий інструмент — штучний інтелект.

Мережа «Правда»: коли назва говорить сама за себе

У квітні 2022 року, коли світ був зайнятий обговоренням страшних подій російсько-української війни, у росії тихенько запустили мережу з промовистою назвою «Правда». Її мета? Поширювати проросійські наративи по всьому світу, використовуючи десятки мов і охоплюючи 49 країн. І все б нічого, але ця «Правда» має мало спільного з істинною правдою.

Російські пропагандисти виявилися досить кмітливими: вони зрозуміли, що великі мовні моделі (LLM), на яких базуються сучасні чат-боти, можна «нагодувати» потрібною інформацією. Цей процес отримав назву «LLM grooming». Суть його проста: заповнити інтернет-простір фейковими новинами та дезінформацією так, щоб чат-боти, збираючи дані для своїх відповідей, натрапляли саме на ці «факти».

Чат-боти на службі кремля: місія здійсненна

Результати не забарилися. Провідні чат-боти, такі як ChatGPT-4, Smart Assistant, Grok, Copilot від Microsoft, Meta AI, Google Gemini та Perplexity, почали відтворювати дезінформацію, поширену мережею «Правда». Щобільше, деякі з них навіть цитували конкретні статті «Правди» як джерела. Виходить, що штучний інтелект, який мав би бути нейтральним і об’єктивним, став мимовільним ретранслятором кремлівської пропаганди.

Коли фейк стає реальністю: небезпека для суспільства

Ця ситуація має серйозні наслідки. Користувачі, довіряючи чат-ботам, отримують викривлену інформацію, що впливає на їхні погляди та рішення. Наприклад, неправдиві твердження про секретні біолабораторії США в Україні або про заборону соціальної мережі Truth Social можуть формувати хибне уявлення про реальний стан речей.

Як захистити штучний інтелект від маніпуляцій?

Проблема маніпуляції штучним інтелектом вимагає негайного вирішення. Необхідно розробити механізми, які дозволять виявляти та блокувати дезінформацію на етапі її потрапляння до мовних моделей. Крім того, важливо підвищувати обізнаність користувачів про можливі ризики та навчати їх критично оцінювати отриману інформацію.

Штучний інтелект у світі постправди

Російська пропаганда показала, що в епоху постправди навіть штучний інтелект може стати жертвою маніпуляцій. Це виклик для всього суспільства: як для розробників технологій, так і для звичайних користувачів. Лише спільними зусиллями можна захистити інформаційний простір від фейків і забезпечити право кожного на достовірну інформацію.

Ольга Вікарчук

Кореспондент АрміяInform

Джерело