ديليس تاتوم

في عالمٍ طمست فيه الوسائط المُولَّدة بالذكاء الاصطناعي الخط الفاصل بين الحقيقة والخيال، وأصبحت القدرة على تزوير الواقع نفسه في متناول اليد، تواجه المجتمعات الديمقراطية تحدياً في إرساء أساليب موثوقة للتحقق.
باتت أدوات الذكاء الاصطناعي اليوم قادرة بالفعل على إنتاج مقاطع صوتية ومرئية شديدة الإقناع. فالأصوات يمكن استنساخها بدقة مذهلة، والصور يمكن تصنيعها بحيث تبدو شبه مطابقة للصور الفوتوغرافية الحقيقية. أما تقنيات الفيديو فقد بلغت مستوى يسمح بإظهار شخصٍ ما وكأنه يقول كلمات لم ينطق بها قط.
لا شك أن الذكاء الاصطناعي يحمل وعوداً هائلة في مجالات العلم والطب والتكنولوجيا. غير أن تأثيره في فضاء النقاش العام قد يدفع ظاهرة التضليل الإعلامي إلى مرحلة جديدة بالكامل. فحتى وقت قريب، كانت معظم أشكال التشويه الإعلامي تعتمد على التلاعب بأحداث حقيقية: اقتطاع مقاطع من سياقها، حذف أجزاء مهمة، أو إعادة ترتيب لقطات حقيقية لتكوين انطباع مختلف. أما اليوم، فنحن أمام ذكاء اصطناعي يختلق أحداثاً مقنعة لم تقع أساساً.
خلال العقد الماضي، كان النقاش العام يفترض ضمناً أن الخطاب العلني يُقدَّم بقدر من الصدق ويُفسَّر بحسن نية. لكن مع مرور الوقت، أدرك كثيرون أن هذا الافتراض لم يعد قائماً. آنذاك، دخل مصطلح «الأخبار الزائفة» القاموس السياسي لوصف التلاعب بالمعلومات في الإعلام الحديث. وغالباً لم تكن هذه التشوهات نتيجة قصص مختلقة بالكامل، بل جاءت من التلاعب بالسياق وطريقة العرض. فالتصريحات تُقتطع من سياقها، ومقاطع الفيديو تُحرَّر انتقائياً، وتُبنى السرديات حول أجزاء مجتزأة من الوقائع بدلاً من الصورة الكاملة.
أصبح هذا النمط مألوفاً. مقطع قصير ينتشر على الإنترنت. عنوان صادم يرسّخ الاتهام. ثم يكرر المعلقون الرواية نفسها حتى تتحول إلى السردية السائدة. وبحلول الوقت الذي يظهر فيه السياق الكامل، تكون القصة قد ترسخت في أذهان الجمهور. بعد احتجاجات شارلوتسفيل عام 2017، انتشر على نطاق واسع جزء من تصريح للرئيس الأمريكي دونالد ترامب قال فيه إن هناك «أشخاصاً طيبين للغاية على الجانبين»، في إشارة إلى الجدل حول تماثيل الكونفدرالية. واستُخدم هذا المقطع دليلاً على أنه امتدح المتطرفين البيض. لكن في الخطاب نفسه أكد بوضوح أن النازيين الجدد والقوميين البيض يجب «إدانتهم بشكل كامل». ذلك الجزء من التصريح غاب عن المقطع المتداول.
وخلال جائحة كوفيد-19، اعتُبر طرح احتمال تسرب الفيروس من مختبر نوعاً من التضليل. وقامت منصات التواصل الاجتماعي بتقييد النقاش حول هذه الفرضية، وأحياناً حذف منشورات أو وسمها بالمضللة لأنها تتعارض مع التوجيهات الصحية السائدة آنذاك. لكن مع مرور الوقت، بدأ علماء وأجهزة استخبارات ينظرون إلى هذه الفرضية باعتبارها تفسيراً محتملاً.
كما سلكت قضية حاسوب هانتر بايدن المحمول مساراً مشابهاً. فقد وُصفت التقارير التي ظهرت قبيل انتخابات الرئاسة الأمريكية عام 2020 بأنها «معلومات مضللة روسية»، وقيدت منصات التواصل انتشارها. إلا أن تقارير لاحقة أكدت أن الحاسوب وكثيراً من محتوياته كان حقيقياً.
في كل هذه الحالات، الآلية واحدة تقريباً، ترتيب أجزاء من الحقيقة بطريقة تنتج سردية مضللة. فالمادة الأصلية كانت موجودة، لكن تم توظيفها بشكل انتقائي.
غير أن الذكاء الاصطناعي غيّر قواعد اللعبة. في السابق، كان من الممكن تفنيد مقطع مضلل بالرجوع إلى التسجيل الكامل للحدث. أما اليوم، فالأدوات الجديدة تتيح إنشاء نسخ مزيفة شديدة الإقناع من التسجيلات، ما يجعل التمييز بين الحقيقي والمصطنع أكثر صعوبة.


*كاتب في «أميركان ثينكر»