Как направихме репорта TickTockracy

TikTokcracy Методология

Започнахме работата по TickTockracy, след като стана ясно как проруският кандидат Калин Джорджеску в Румъния излезе първи на изборите през 2024 г. благодарение на мрежа от TikTok акаунти, които публикуват почти идентични видеа. Моделът беше описан подробно: fire hose техника, масово репликиране, платени инфлуенсъри, Telegram координация, фалшиви коментари, изкуствен reach. Нашият въпрос беше прост — има ли нещо подобно в България? И ако има, в чия полза работи.

Изграждане на мрежата: откъде тръгнахме

Отворихме TikTok и започнахме от ключови български политически хаштагове — #меч, #рудигела, #ивелинмихайлов, #възраждане, #величие, #избори2024. Записвахме всички акаунти, които се появяваха редовно под тях. 

След това идентифицирахме инфлуенсърите, които се появяват многократно. Гледахме кой повтаря едни и същи фрази, кой публикува в един и същи стил, кой се закача със същата група хаштагове. Проверявахме и за репостове и „stitch“-ове — ако едно и също видео циркулира през много акаунти, това е първият сигнал за координация.

Тук започна да се оформя първата карта: профили на партии, подкрепящи акаунти, микроинфлуенсъри, страници с неясен произход и профили, които живеят само за да пушват определени клипове.

Паралелно разглеждахме и биографиите — линкове към Facebook, YouTube, Telegram, уебсайтове. Пред очите ни се откри цяла предизборна екосистема. От тези наблюдения направихме изводът, че в България съществува „икономически мотивирана система за алгоритмична манипулация“, която работи през мултиплатформена инфраструктура.

Събиране на данните

За да измерим поведението, изтеглихме всички видеа от предизборния период през Sensika и метаданните през платформата Exolyt. Така разполагахме с:

  • гледания
  • харесвания
  • коментари
  • споделяния
  • ER (engagement rate)
  • коментари
  • времеви данни

Exolyt използвахме не само като вторичен източник за валидация на метриките, но и заради това, че платформата пази коментарите в състоянието, в което са били към момента на преминаване на нейния кроулър. Това беше важно, защото много коментари в TikTok изчезват, променят се или се филтрират по-късно. В Exolyt можехме да видим оригиналните дискусии, както и географските данни за част от профилите, които коментират. Именно там открихме и първите географски аномалии — коментари от страни и региони, които нямат никаква логическа връзка с българския политически разговор. Подобни географски несъответствия са описани от НАТО StratCom COE (2024) и Nevado-Catalán et al. (2022) като характерен признак за закупена или неавтентична ангажираност.

Това ни позволи да преминем от качествено наблюдение към количествен анализ.

След като в процеса на изследването изградихме методиката, я дадохме и на партньорите ни, за да извлекат аналогични данни за Косово. Така проверихме дали същите модели съществуват и извън България.

Първата аномалия: нисък ER при много гледания

Първият сигнал за манипулация е нисък engagement rate при необичайно висок reach.

  • Нормално съдържание: ER над 3–4%.
  • Подозрително: 1–2%.
  • Манипулация вероятна: под 1%.

Тези стойности са в съответствие с TikTok benchmark данните на Socialinsider, Brandwatch и Emplicit.

В България намерихме десетки видеа с:

  • 100–300K+ гледания
  • ER под 2%
  • понякога ER = 0.5% или 0.3%

Това не е органично поведение. То съвпада с модела, описан от NATO StratCom COE (2024) и Nevado-Catalán (2022) — изкуствено генерирани гледания без съответни реакции.

Fire Hose модел: повторения, вариации и информационен шум

Видяхме цели клъстери от профили, които публикуват:

  • едни и същи видеа
  • с минимални промени (друга музика, друг текст, емоджи)
  • в рамките на часове

Това е fire hose моделът, описан от RAND (Paul & Matthews, 2016). Присъства и в румънската кампания.
Целта: TikTok да третира всяка вариация като „ново“ съдържание → повече reach → повече шанс да бъде „вкаран“ в FYP на избиратели.

Дисбаланси: подозрителни коментари и географски аномалии

Една от най-показателните аномалии беше в коментарите:

  • едносрични, шаблонни коментари.
  • повтарящи се под различни видеа от различни профили
  • акаунти с локации в други европейски страни, Азия, Близкия Изток…
  • Акаунти, които коментират активно полиическо съдържание на определени партии, без да произвеждат съдържание.
  • коментари без връзка със съдържанието
  • или пълна липса на коментари при силно политически клипове с много гледания.

Този модел е точно това, което Nevado-Catalán и NATO StratCom COE свързват с:

  • купени коментари
  • ботски коментари
  • коментари от „глобални ферми“

Съмнителни профили и междуплатформени връзки

Намерихме и профили с явни признаци за неавтентичност:

  • AI-генерирани профилни снимки
  • регистрация извън България (напр. в UK, където DSA не важи)
  • съдържание, насочено само към една партия
  • линкове към Telegram групи, Facebook страници и сайтове, свързани с определени политически актьори

Докладът BFMI & Sensika описва конкретно пример с @prodajnipoliticivpandiza като част от такава екосистема — профил с AI снимка, неясен произход и еднопосочно политическо съдържание.

Партиите и мрежите: кой стои зад най-големите операции

Според анализа на данните най-активните политически мрежи в TikTok бяха:

  • МЕЧ
  • „Възраждане“
  • „Величие“

Тези групи показваха:

  • масови повторения на видеа
  • най-ниски ER при най-големи гледания
  • най-много странни коментари
  • най-силна cross-platform активност
  • най-чести признаци на купени буустове

Какво показаха данните на самия TikTok

TikTok официално докладва, че през 2024 г. в България са премахнати:

  • 423 000 фалшиви акаунта
  • 6.4 милиона фалшиви харесвания
  • 328 реклами, нарушаващи политиките

Тези числа сами по себе си показват, че платформата е била активна мишена за манипулации през изборния период.

Какво заключихме

След комбинирането на всички индикатори — нисък ER, burst views, fire hose клъстери, аномални коментари, AI профили, cross-platform координация, повторяеми партийни мрежи — стигнахме до ясна картина:

В българския TikTok действат организирани мрежи, които използват алгоритмични слабости, за да усилват политически послания и да влияят на видимостта на определени партии.

Моделът е почти същията, като румънския, макар и в по-малък мащаб. Част от екосистема: дисперсна, икономически мотивирана, постоянно активна система за алгоритмична манипулация.

Анализът на партньорите ни показа, че в Косово се наблюдава почти същата динамика: TikTok позволява бързо изграждане на нови политически идентичности и мрежи, които могат да променят обществените нагласи по-бързо, отколкото институциите могат да реагират. Тази нова екология на влияние е описана подробно в доклада ни.

Заявете демо