Започнахме работата по TickTockracy, след като стана ясно как проруският кандидат Калин Джорджеску в Румъния излезе първи на изборите през 2024 г. благодарение на мрежа от TikTok акаунти, които публикуват почти идентични видеа. Моделът беше описан подробно: fire hose техника, масово репликиране, платени инфлуенсъри, Telegram координация, фалшиви коментари, изкуствен reach. Нашият въпрос беше прост — има ли нещо подобно в България? И ако има, в чия полза работи.
Изграждане на мрежата: откъде тръгнахме
Отворихме TikTok и започнахме от ключови български политически хаштагове — #меч, #рудигела, #ивелинмихайлов, #възраждане, #величие, #избори2024. Записвахме всички акаунти, които се появяваха редовно под тях.
След това идентифицирахме инфлуенсърите, които се появяват многократно. Гледахме кой повтаря едни и същи фрази, кой публикува в един и същи стил, кой се закача със същата група хаштагове. Проверявахме и за репостове и „stitch“-ове — ако едно и също видео циркулира през много акаунти, това е първият сигнал за координация.
Тук започна да се оформя първата карта: профили на партии, подкрепящи акаунти, микроинфлуенсъри, страници с неясен произход и профили, които живеят само за да пушват определени клипове.
Паралелно разглеждахме и биографиите — линкове към Facebook, YouTube, Telegram, уебсайтове. Пред очите ни се откри цяла предизборна екосистема. От тези наблюдения направихме изводът, че в България съществува „икономически мотивирана система за алгоритмична манипулация“, която работи през мултиплатформена инфраструктура.
Събиране на данните
За да измерим поведението, изтеглихме всички видеа от предизборния период през Sensika и метаданните през платформата Exolyt. Така разполагахме с:
- гледания
- харесвания
- коментари
- споделяния
- ER (engagement rate)
- коментари
- времеви данни
Exolyt използвахме не само като вторичен източник за валидация на метриките, но и заради това, че платформата пази коментарите в състоянието, в което са били към момента на преминаване на нейния кроулър. Това беше важно, защото много коментари в TikTok изчезват, променят се или се филтрират по-късно. В Exolyt можехме да видим оригиналните дискусии, както и географските данни за част от профилите, които коментират. Именно там открихме и първите географски аномалии — коментари от страни и региони, които нямат никаква логическа връзка с българския политически разговор. Подобни географски несъответствия са описани от НАТО StratCom COE (2024) и Nevado-Catalán et al. (2022) като характерен признак за закупена или неавтентична ангажираност.
Това ни позволи да преминем от качествено наблюдение към количествен анализ.
След като в процеса на изследването изградихме методиката, я дадохме и на партньорите ни, за да извлекат аналогични данни за Косово. Така проверихме дали същите модели съществуват и извън България.
Първата аномалия: нисък ER при много гледания
Първият сигнал за манипулация е нисък engagement rate при необичайно висок reach.
- Нормално съдържание: ER над 3–4%.
- Подозрително: 1–2%.
- Манипулация вероятна: под 1%.
Тези стойности са в съответствие с TikTok benchmark данните на Socialinsider, Brandwatch и Emplicit.
В България намерихме десетки видеа с:
- 100–300K+ гледания
- ER под 2%
- понякога ER = 0.5% или 0.3%
Това не е органично поведение. То съвпада с модела, описан от NATO StratCom COE (2024) и Nevado-Catalán (2022) — изкуствено генерирани гледания без съответни реакции.
Fire Hose модел: повторения, вариации и информационен шум
Видяхме цели клъстери от профили, които публикуват:
- едни и същи видеа
- с минимални промени (друга музика, друг текст, емоджи)
- в рамките на часове
Това е fire hose моделът, описан от RAND (Paul & Matthews, 2016). Присъства и в румънската кампания.
Целта: TikTok да третира всяка вариация като „ново“ съдържание → повече reach → повече шанс да бъде „вкаран“ в FYP на избиратели.
Дисбаланси: подозрителни коментари и географски аномалии
Една от най-показателните аномалии беше в коментарите:
- едносрични, шаблонни коментари.
- повтарящи се под различни видеа от различни профили
- акаунти с локации в други европейски страни, Азия, Близкия Изток…
- Акаунти, които коментират активно полиическо съдържание на определени партии, без да произвеждат съдържание.
- коментари без връзка със съдържанието
- или пълна липса на коментари при силно политически клипове с много гледания.
Този модел е точно това, което Nevado-Catalán и NATO StratCom COE свързват с:
- купени коментари
- ботски коментари
- коментари от „глобални ферми“
Съмнителни профили и междуплатформени връзки
Намерихме и профили с явни признаци за неавтентичност:
- AI-генерирани профилни снимки
- регистрация извън България (напр. в UK, където DSA не важи)
- съдържание, насочено само към една партия
- линкове към Telegram групи, Facebook страници и сайтове, свързани с определени политически актьори
Докладът BFMI & Sensika описва конкретно пример с @prodajnipoliticivpandiza като част от такава екосистема — профил с AI снимка, неясен произход и еднопосочно политическо съдържание.
Партиите и мрежите: кой стои зад най-големите операции
Според анализа на данните най-активните политически мрежи в TikTok бяха:
- МЕЧ
- „Възраждане“
- „Величие“
Тези групи показваха:
- масови повторения на видеа
- най-ниски ER при най-големи гледания
- най-много странни коментари
- най-силна cross-platform активност
- най-чести признаци на купени буустове
Какво показаха данните на самия TikTok
TikTok официално докладва, че през 2024 г. в България са премахнати:
- 423 000 фалшиви акаунта
- 6.4 милиона фалшиви харесвания
- 328 реклами, нарушаващи политиките
Тези числа сами по себе си показват, че платформата е била активна мишена за манипулации през изборния период.
Какво заключихме
След комбинирането на всички индикатори — нисък ER, burst views, fire hose клъстери, аномални коментари, AI профили, cross-platform координация, повторяеми партийни мрежи — стигнахме до ясна картина:
В българския TikTok действат организирани мрежи, които използват алгоритмични слабости, за да усилват политически послания и да влияят на видимостта на определени партии.
Моделът е почти същията, като румънския, макар и в по-малък мащаб. Част от екосистема: дисперсна, икономически мотивирана, постоянно активна система за алгоритмична манипулация.
Анализът на партньорите ни показа, че в Косово се наблюдава почти същата динамика: TikTok позволява бързо изграждане на нови политически идентичности и мрежи, които могат да променят обществените нагласи по-бързо, отколкото институциите могат да реагират. Тази нова екология на влияние е описана подробно в доклада ни.



