Разпространението на дезинформация, генерирана от изкуствен интелект (ИИ), създава сериозни рискове за демократичните общества, особено в контекста на избори, национална сигурност и обществено доверие. По време на кръгла маса в София, организирана от Наблюдателницата за дезинформация на CIDC–Sensika – съвместна инициатива между Центъра за изследване на демокрацията (CIDC) и Sensika – международни експерти анализираха новите измерения на заплахата от дезинформация, засилена от генеративен ИИ.
Форумът очерта нарастващата необходимост от координиран отговор, който включва технологични решения, регулации и повишена осведоменост, за да се гарантира устойчивостта на обществото към манипулативни информационни потоци.
Какво представлява дезинформацията, генерирана от ИИ?
Съвременните генеративни технологии като езикови модели и инструменти за създаване на изображения и видео позволяват създаването на фалшиво, но реалистично съдържание за секунди. Това включва:
- Автоматично генерирани текстове, представящи се като новинарски статии;
- Deepfake видеа с изкуствено създадени образи и гласове на публични личности;
- Манипулирани изображения, създаващи подвеждащи внушения.
Както подчерта д-р Мариана Тодорова, експерт по бъдещи изследвания и етика на ИИ:
Генеративният изкуствен интелект може да замърси информационното пространство в мащаб, какъвто досега не сме виждали.
Този капацитет за масово създаване на убедителна дезинформация значително повишава потенциала за влияние върху обществени нагласи.
Акценти от кръглата маса в София
Събитието събра експерти от сферата на киберсигурността, медийната грамотност, политиката и технологиите. Дискусиите очертаха няколко основни риска:
ИИ като катализатор на злонамерени кампании
Новите генеративни технологии улесняват разпространението на дезинформация – не само защото автоматизират създаването на съдържание, но и защото го правят евтино и достъпно.
Според Горан Георгиев, анализатор в CIDC:
Враждебни актьори все по-често използват ИИ, за да манипулират общественото мнение, особено в чувствителни политически моменти.
Тази динамика намалява прага за участие в информационни атаки и прави традиционните форми на верификация по-малко ефективни.
Опасности по време на избори
Участниците изразиха тревога относно възможността за влияние върху изборния процес чрез фалшиви новини и deepfake съдържание. Предвид множеството избори в Европа през 2024–2025 г., тези заплахи са особено релевантни.
Липса на ефективна регулация
Д-р Орлин Спасов, изпълнителен директор на Фондация „Медийна демокрация“, отбеляза:
Технологичните гиганти не се регулират по начин, който отговаря на демократичните принципи, което позволява ИИ-създадената дезинформация да се разпространява безпрепятствено.
Този нормативен вакуум възпрепятства институциите в усилията им да ограничат разпространението на манипулативно съдържание.
Уязвимости в Югоизточна Европа
Регионът на Югоизточна Европа, включително България, е особено податлив на дезинформация. Причините включват:
- Ограничен медиен плурализъм;
- Слаба медийна грамотност сред населението;
- Ниско доверие в институциите;
- Геополитически интереси, които използват локално насочена дезинформация.
Генеративният ИИ само засилва тези процеси, като улеснява създаването на локализирани послания, съобразени с културния и политически контекст.
Ролята на медийния мониторинг в борбата с дезинформацията
Ефективната реакция срещу ИИ-базирана дезинформация изисква способност за навременно откриване на манипулации в информационната среда. Инструментите за медийно наблюдение, като тези на Sensika, предоставят:
- Ранно предупреждение за появата на нови фалшиви наративи;
- Анализ на разпространението на съмнително съдържание в традиционни и социални медии;
- Откриване на координирани кампании, базирани на повторяеми модели и синхрон между различни източници.
Тези възможности са от критично значение за институции, НПО и компании, които се стремят да запазят информационната си среда защитена.
Какво препоръчват експертите?
В заключение на форума бяха очертани конкретни препоръки:
- Развитие на технологични инструменти за засичане на ИИ-създадено съдържание;
- Обучение на журналисти и комуникационни специалисти за справяне с новите заплахи;
- Повишаване на медийната и дигиталната грамотност сред гражданите;
- Регулаторна рамка на ниво ЕС, която да отчита динамиката на ИИ и неговото въздействие върху информационната среда;
- Сътрудничество между публичния и частния сектор, с акцент върху наблюдение и реакция в реално време.
Заключение: Време за действия, базирани на данни
Развитието на изкуствения интелект носи значителни ползи, но и сериозни рискове, когато се използва за манипулация на информация. Кръглата маса в София подчерта ясно, че борбата с дезинформацията, генерирана от ИИ, изисква координиран отговор между технологични решения, регулаторни политики и гражданско участие. Медийното наблюдение е критичен инструмент в този процес, позволявайки ни да отсяваме фактите от манипулациите.
👉 Ако искате да научите повече за това как Sensika може да подпомогне вашата организация в идентифицирането и проследяването на дезинформация, свържете се с нас за демо или разгледайте нашите решения.