يشكّل انتشار المعلومات المضللة الناتجة عن الذكاء الاصطناعي خطرًا متزايدًا على المجتمعات الديمقراطية، خاصة في سياق الانتخابات، والأمن القومي، والثقة العامة. خلال مائدة مستديرة نُظّمت في صوفيا من قبل مرصد CIDC–Sensika لمكافحة المعلومات المضللة – وهو مبادرة مشتركة بين مركز دراسة الديمقراطية (CIDC) وشركة Sensika – ناقش خبراء دوليون الأبعاد الجديدة للتهديد المتزايد من التضليل المدعوم بالذكاء الاصطناعي التوليدي.
سلّط هذا المنتدى الضوء على الحاجة المتزايدة إلى استجابة منسّقة تجمع بين الحلول التقنية، والتنظيم، ورفع الوعي المجتمعي لضمان صمود البيئة الإعلامية في مواجهة تدفق المعلومات المضللة.
ما هي المعلومات المضللة الناتجة عن الذكاء الاصطناعي؟
تتيح التقنيات التوليدية الحديثة مثل النماذج اللغوية وأدوات إنتاج الصور والفيديوهات، إنشاء محتوى مزيف لكنه واقعي خلال ثوانٍ. ويشمل ذلك:
- نصوص يتم توليدها تلقائيًا وتبدو كأنها أخبار حقيقية؛
- مقاطع فيديو من نوع deepfake تُظهر شخصيات عامة في مواقف لم تحدث؛
- صور معدّلة تنقل رسائل مضللة.
وكما أوضحت الدكتورة ماريانا تودوروفا، خبيرة في دراسات المستقبل وأخلاقيات الذكاء الاصطناعي:
الذكاء الاصطناعي التوليدي يمكنه تلويث الفضاء المعلوماتي على نطاق لم نشهده من قبل.
يمثل هذا القدرة الهائلة على إنتاج محتوى مضلل ومقنع تهديدًا مباشرًا للرأي العام واستقراره.
أبرز ما ناقشته المائدة المستديرة في صوفيا
جمعت الفعالية خبراء في الأمن السيبراني، ومحو الأمية الإعلامية، والسياسات، والتكنولوجيا. وتمثلت أبرز النقاط فيما يلي:
الذكاء الاصطناعي كمحفز للحملات الخبيثة
تُسهّل التكنولوجيا التوليدية الحديثة عملية إنتاج المعلومات المضللة، ليس فقط من خلال الأتمتة، بل أيضًا بسبب انخفاض تكلفتها وسهولة استخدامها.
وأوضح غوران غيورغييف، محلل في مركز CIDC:
الجهات المعادية تستخدم الذكاء الاصطناعي بشكل متزايد للتلاعب بالرأي العام، خصوصًا خلال الفترات السياسية الحساسة.
هذا الاتجاه يخفض الحواجز التقنية ويُصعّب من عمليات التحقق التقليدية.
مخاطر في أوقات الانتخابات
عبّر المشاركون عن قلقهم من استخدام المحتوى المضلل، وخاصة الفيديوهات المزيفة والأخبار الملفقة، للتأثير على نتائج الانتخابات. ويزداد هذا التهديد أهمية بالنظر إلى كثافة الاستحقاقات الانتخابية في أوروبا خلال عامي 2024 و2025.
فجوة تنظيمية خطيرة
أشار الدكتور أورلين سباسوف، المدير التنفيذي لمؤسسة “ديمقراطية الإعلام”:
عمالقة التكنولوجيا لا يخضعون لتنظيم يراعي المبادئ الديمقراطية، مما يسمح بانتشار المعلومات المضللة التي ينتجها الذكاء الاصطناعي دون رقابة فعالة.
هذا الفراغ التنظيمي يعوق جهود المؤسسات في مواجهة التضليل.
ضعف البنية الإعلامية في جنوب شرق أوروبا
تُعتبر منطقة جنوب شرق أوروبا، بما في ذلك بلغاريا، عرضة بشكل خاص للمعلومات المضللة لأسباب عدة:
- محدودية التنوع الإعلامي؛
- تدنّي مستوى الثقافة الإعلامية والرقمية؛
- ضعف الثقة في المؤسسات؛
- استغلال فاعلين خارجيين للسياقات المحلية من خلال محتوى مولَّد بالذكاء الاصطناعي.
دور رصد وسائل الإعلام في كشف المعلومات المضللة
تتطلب مكافحة التضليل الناتج عن الذكاء الاصطناعي قدرة على اكتشاف الأنماط التضليلية مبكرًا. وتساعد أدوات رصد وسائل الإعلام مثل تلك التي تقدمها Sensika في:
- إطلاق تنبيهات مبكرة حول ظهور روايات زائفة جديدة؛
- تحليل انتشار المحتوى المضلل في وسائل الإعلام التقليدية والاجتماعية؛
- اكتشاف الحملات المنسقة من خلال الأنماط التكرارية والتزامن بين المصادر.
تمثل هذه القدرات أداة حيوية للمؤسسات، والمنظمات غير الحكومية، والشركات في تأمين بيئتها المعلوماتية.
ما الذي يوصي به الخبراء؟
أجمع المشاركون على مجموعة من التوصيات العملية:
- الاستثمار في أدوات تقنية لكشف المحتوى المزيف الذي يُنتجه الذكاء الاصطناعي؛
- تدريب الصحفيين وخبراء الاتصال على التعامل مع هذه التهديدات الجديدة؛
- تعزيز الثقافة الرقمية والإعلامية لدى الجمهور العام؛
- تطوير أطر تنظيمية على مستوى الاتحاد الأوروبي تستجيب لتسارع تطورات الذكاء الاصطناعي؛
- تشجيع الشراكات بين القطاعين العام والخاص في مجالات الرصد والاستجابة.
خلاصة: مواجهة جماعية في عصر الذكاء الاصطناعي
أوضحت المائدة المستديرة، التي نُظّمت من قبل مرصد CIDC–Sensika لمكافحة المعلومات المضللة، أن مواجهة التهديدات الناتجة عن الذكاء الاصطناعي لا يمكن أن تعتمد فقط على التكنولوجيا أو التشريعات. بل تتطلب استجابة متكاملة تشمل المؤسسات، والإعلام، والخبراء، والشركات التكنولوجية.
للتعرّف أكثر على كيف يمكن لـ Sensika أن تدعم مؤسستكم في رصد وتتبع حملات التضليل، ندعوكم إلى التواصل معنا لتجربة توضيحية.