Дезинформация, генерирана от ИИ

Нови предизвикателства пред медиите и сигурността

Disinformation Observatory Roundtable

Разпространението на дезинформация, генерирана от изкуствен интелект (ИИ), създава сериозни рискове за демократичните общества, особено в контекста на избори, национална сигурност и обществено доверие. По време на кръгла маса в София, организирана от Наблюдателницата за дезинформация на CIDC–Sensika – съвместна инициатива между Центъра за изследване на демокрацията (CIDC) и Sensika – международни експерти анализираха новите измерения на заплахата от дезинформация, засилена от генеративен ИИ.

Форумът очерта нарастващата необходимост от координиран отговор, който включва технологични решения, регулации и повишена осведоменост, за да се гарантира устойчивостта на обществото към манипулативни информационни потоци.

Какво представлява дезинформацията, генерирана от ИИ?

Съвременните генеративни технологии като езикови модели и инструменти за създаване на изображения и видео позволяват създаването на фалшиво, но реалистично съдържание за секунди. Това включва:

  • Автоматично генерирани текстове, представящи се като новинарски статии;
  • Deepfake видеа с изкуствено създадени образи и гласове на публични личности;
  • Манипулирани изображения, създаващи подвеждащи внушения.

Както подчерта д-р Мариана Тодорова, експерт по бъдещи изследвания и етика на ИИ:

Генеративният изкуствен интелект може да замърси информационното пространство в мащаб, какъвто досега не сме виждали.

Този капацитет за масово създаване на убедителна дезинформация значително повишава потенциала за влияние върху обществени нагласи.

Акценти от кръглата маса в София

Събитието събра експерти от сферата на киберсигурността, медийната грамотност, политиката и технологиите. Дискусиите очертаха няколко основни риска:

ИИ като катализатор на злонамерени кампании

Новите генеративни технологии улесняват разпространението на дезинформация – не само защото автоматизират създаването на съдържание, но и защото го правят евтино и достъпно.

Според Горан Георгиев, анализатор в CIDC:

Враждебни актьори все по-често използват ИИ, за да манипулират общественото мнение, особено в чувствителни политически моменти.

Тази динамика намалява прага за участие в информационни атаки и прави традиционните форми на верификация по-малко ефективни.

Опасности по време на избори

Участниците изразиха тревога относно възможността за влияние върху изборния процес чрез фалшиви новини и deepfake съдържание. Предвид множеството избори в Европа през 2024–2025 г., тези заплахи са особено релевантни.

Липса на ефективна регулация

Д-р Орлин Спасов, изпълнителен директор на Фондация „Медийна демокрация“, отбеляза:

Технологичните гиганти не се регулират по начин, който отговаря на демократичните принципи, което позволява ИИ-създадената дезинформация да се разпространява безпрепятствено.

Този нормативен вакуум възпрепятства институциите в усилията им да ограничат разпространението на манипулативно съдържание.

Уязвимости в Югоизточна Европа

Регионът на Югоизточна Европа, включително България, е особено податлив на дезинформация. Причините включват:

  • Ограничен медиен плурализъм;
  • Слаба медийна грамотност сред населението;
  • Ниско доверие в институциите;
  • Геополитически интереси, които използват локално насочена дезинформация.

Генеративният ИИ само засилва тези процеси, като улеснява създаването на локализирани послания, съобразени с културния и политически контекст.

Ролята на медийния мониторинг в борбата с дезинформацията

Ефективната реакция срещу ИИ-базирана дезинформация изисква способност за навременно откриване на манипулации в информационната среда. Инструментите за медийно наблюдение, като тези на Sensika, предоставят:

  • Ранно предупреждение за появата на нови фалшиви наративи;
  • Анализ на разпространението на съмнително съдържание в традиционни и социални медии;
  • Откриване на координирани кампании, базирани на повторяеми модели и синхрон между различни източници.

Тези възможности са от критично значение за институции, НПО и компании, които се стремят да запазят информационната си среда защитена.

Какво препоръчват експертите?

В заключение на форума бяха очертани конкретни препоръки:

  1. Развитие на технологични инструменти за засичане на ИИ-създадено съдържание;
  2. Обучение на журналисти и комуникационни специалисти за справяне с новите заплахи;
  3. Повишаване на медийната и дигиталната грамотност сред гражданите;
  4. Регулаторна рамка на ниво ЕС, която да отчита динамиката на ИИ и неговото въздействие върху информационната среда;
  5. Сътрудничество между публичния и частния сектор, с акцент върху наблюдение и реакция в реално време.

Заключение: Време за действия, базирани на данни

Развитието на изкуствения интелект носи значителни ползи, но и сериозни рискове, когато се използва за манипулация на информация. Кръглата маса в София подчерта ясно, че борбата с дезинформацията, генерирана от ИИ, изисква координиран отговор между технологични решения, регулаторни политики и гражданско участие. Медийното наблюдение е критичен инструмент в този процес, позволявайки ни да отсяваме фактите от манипулациите.

👉 Ако искате да научите повече за това как Sensika може да подпомогне вашата организация в идентифицирането и проследяването на дезинформация, свържете се с нас за демо или разгледайте нашите решения.

Заявете демо