Випускниця Українського католицького університету (УКУ) Вікторія Маковська створила модель, яка допомагає виявляти російські маніпуляції у Wikipedia, навіть коли вони маскуються під нейтральні формулювання.
У фокусі моделі– не очевидні фейки, а тонкі мовні маркери: ідеологічні обертони, зміщення акцентів, сумнівних фактів.
Розробка потенційно могла б стати корисною державі в інформаційній боротьбі проти російської пропаганди. Тож Mind розповідає докладніше про те, що зараз здатна аналізувати модель та як вона може бути застосована на практиці, зокрема й за межами Wikipedia.
Яке завдання вирішує проєкт
На жаль, в Україні досі найпопулярнішою версією Wikipedia залишається російськомовна. Це створює значний ризик, адже саме через неї до українських користувачів просочується російська пропаганда.
Wikipedia має розгалужену систему модерації – як автоматичної, так і ручної. І модератори зазвичай досить ефективно виявляють та усувають маніпулятивні редагування. Але наразі автоматизована модерація Wikipedia не спрямована безпосередньо на виявлення тонких текстових маніпуляцій. Вона фокусується переважно на очевидних проявах вандалізму, таких, як повторювані вставки тексту капслоком, особисті образи, жарти, а також перевірка наявності чи релевантності джерел.
Тому у фокусі розробки випускниці УКУ Вікторії Маковської став машинний аналіз спроб поширення дезінформації, а не остаточних версій статей. Її дипломний проєкт на цю тему – «Вандалізм чи маніпуляція знаннями? Виявлення наративів у редагуваннях Wikipedia» – визнано одним із найкращих проєктів випускників УКУ 2025 року. Він базується на ML-моделі (machine learning – машинне навчання).
За словами Вікторії, модель поки що працює з енциклопедичними текстами, але її підхід має потенціал для подальшого застосування – наприклад, у телеграм-каналах чи новинних стрічках, де пропаганда часто має виглядає просто «альтернативної думки». Інакше кажучи, основне завдання розробки – навчити ШІ бачити там, де людина не помічає нічого підозрілого.
Вікторія Маковська: «Навіть з тим, як модератори Вікіпедії намагаються дотримуватися нейтральності, автоматизовані системи можуть допомогти людям робити це швидше та ефективніше. Найменше, що ми можемо зробити, – це знайти докази просочування російської пропаганди у Вікіпедію, показати, яку форму ці наративи мають, а найкраще – створити систему, яка зможе такі кейси визначати».
У цьому контексті дуже важливим є той факт, що Вікіпедію часто використовують як джерело даних для тренування великих мовних моделей. Тому в разі потрапляння туди викривленої інформації вона й надалі може просочуватися навіть у чат-боти, створені на основі цих моделей. Існують дослідження, які свідчать, що це вже відбувається. Такий підхід уже має назву LLM grooming, і російська пропаганда активно використовує цей інструмент проти України.
Тому метою проєкту було створити систему, яка зможе аналізувати також дублікати Wikipedia (зокрема, Ru Wikipedia Fork) і виявляти в них ознаки російської пропаганди.
Як навчали модель
Модель донавчали на власному датасеті (структурованому наборі даних), що містив приклади пропагандистських і нейтральних текстів із Вікіпедії. Вікторія створювала віртуальне середовище, де запускалися скрипти для аналізу та навчання. Система не «шукає» фейки самостійно в енциклопедії. Вона працює за іншим принципом: на вхід подається текстова ревізія (revision), тобто конкретна зміна, яку хтось хоче внести до статті у Вікіпедії; модель аналізує цю зміну як фрагмент тексту й видає оціночний бал (score) від 0 до 1 – наскільки ймовірно, що ця правка є деструктивною.
За матеріалами mind
Коментарі
Дописати коментар