عادي

نهج جديد للكشف عن التزييف العميق

16:34 مساء
قراءة دقيقتين
التزييف العميق يأخذ أشكالاً عديدة
كشف باحثون من جامعة تشجيانغ في الصين، نهجاً جديداً لمعالجة التحديات التي تفرضها تكنولوجيا التزييف العميق، والتي تولد محتوى إعلامي تم التلاعب به يشبه إلى حد كبير اللقطات الأصلية.
وتجمع الطريقة الجديدة بين نموذجين لتحليل المحتوى المشبوه بشكل أكثر فعالية وتحديد الصور المزيفة بدقة تزيد عن 99%، وعلى الرغم من أن مقاطع الفيديو والصور المزيفة والاحتيالية موجودة منذ سنوات عديدة، إلا أن مصطلح «التزييف العميق» يشير بشكل أكثر شيوعاً إلى مقاطع الفيديو أو الصور التي تم التلاعب بها، والتي تم إنشاؤها باستخدام الذكاء الاصطناعي وتقنيات التعلم العميق، وتسمح هذه التقنيات للمستخدمين بتركيب أو استبدال المحتويات الأصلية للصورة أو الفيديو بمحتوى آخر.
وعادة ما يتم تزييف وجه الشخص وصوته في مقطع فيديو، يمكن استخدام مثل هذه التزييفات العميقة لأغراض الترفيه كما هو الحال مع العديد من التطبيقات التي تسمح للمستخدمين العاديين بإنشاء محتوى «مسلي» يضم أصدقاءهم وعائلاتهم أو المشاهير بالفعل.
ومع ذلك، فإن الاستخدام الأكثر خبثاً للتزييف العميق قد اكتسب اهتماماً شعبياً بسبب إمكانية خداع المشاهدين، مما يؤدي في الأغلب إلى مخاوف بشأن المعلومات المضللة وانتهاك الخصوصية والتلاعب بالخطاب العام والسياسي.
وحتى الآن، تقل عمليات اكتشاف التزييف العميق بسبب انخفاض معدلات الدقة وصعوبات التعميم عبر مجموعات البيانات المختلفة.
أجرى الفريق البحثي تدريباً واختباراً عبر مجموعات البيانات، مستخدماً أساليب نقل التعلم لتحسين قدرة النموذج على التعميم عبر مجموعات البيانات المختلفة، واستخدموا فقدان التركيز أثناء التدريب لموازنة العينات وتعزيز التعميم بشكل أكبر، وتُظهر اختباراتهم الوعد الذي يقدمه هذا النهج، حيث تظهر دقة اكتشاف تبلغ 99.05% على مجموعة بيانات «FaceSwap».
التقييمات
قم بإنشاء حسابك لتتمكن من تقييم المقالات
http://tinyurl.com/yu4ea9r9

لاستلام اشعارات وعروض من صحيفة "الخليج"