عادي
المحتالون يعولون على ضعف وعي الضحايا

تقنيات «التزييف العميق» توسع دائرة التهديدات الإلكترونية

00:24 صباحا
قراءة 5 دقائق
التزييف العميق يراهن على ضعف المؤسسات والأفراد التقني
باسل ماكلاي

دبي: حمدي سعد

ارتفعت مؤخراً معدلات الشكوى من عمليات «التزييف العميق» (Deepfake)؛ حيث يزور أشخاص مقاطع فيديو وصوراً وتسجيلات وهويات مسروقة لاحتيال الصفة لتحقيق أهداف منها: سرقة أو غسل وتحويل الأموال أو قرصنة المعلومات أو التخريب وغيرها من الأهداف الخبيثة.

ويقوم هؤلاء الأشخاص عادة بانتحال صفة شخص آخر لاستغلال العملاء أو المؤسسات والشركات باستخدام وسائل تقنية، منها القياسات الحيوية لانتحال الوجه أو الصوت والتي تماثل القياسات الحيوية التي تستخدمها المؤسسات والشركات، لاسيما المالية، للتحقق من هوية المستخدم.

باستخدام هذه التقنيات يتمكن هؤلاء الأشخاص من انتحال هوية مسؤولين ومديرين أو غيرهم من الأشخاص لخداعهم ودفعهم للقيام بممارسات منها: إرسال أو تحويل الأموال أو بيانات حساسة أو لتمكينهم من الوصول إلى الشبكات الإلكترونية لهذه المؤسسات أو الشركات.

وتأتي أهمية توعية الموظفين بأساليب الاحتيال الجديدة المستخدمة ل «التزييف العميق» وتدريبهم على تمييز الأصوات والصور وحركات الجسم ولون البشرة والملابس وغيرها من الأساليب واكتشاف أي شيء غير عادي، إضافة إلى استخدام الحلول التقنية لتوثيق هوية المستخدم التي توفر مستويات إضافية ضد المحتالين.

وينصح الخبراء باتخاذ بعض الأساليب لتجنب أساليب «التزييف العميق» من أهمها: تجنب عرض المعلومات والصور الشخصية الحساسة التي توفر مادة خام يمكنه تزويرها لانتحال الهوية وتسجيل الدخول على الشبكات الخاصة وضرورة استخدام طرق المصادقة من خطوتين أو باستخدام الهوية البيومترية لتسجيل الدخول بدلاً من استخدام كلمات المرور وغيرها من الوسائل بهدف التحقق.

التعريف بسبل الحماية

أطلق البرنامج الوطني للذكاء الاصطناعي «دليل التزييف العميق» ضمن مبادرات مجلس جودة الحياة الرقمية الذي يرأسه الفريق سمو الشيخ سيف بن زايد آل نهيان نائب رئيس مجلس الوزراء وزير الداخلية، العام الماضي، وذلك بهدف تعزيز الوعي المجتمعي بالاستخدامات الإيجابية والسلبية لتكنولوجيا «التزييف العميق»، والتعريف بسبل الحماية من مختلف التحديات الناجمة عن الاستخدام غير الصحيح لهذه التطبيقات والوسائل التكنولوجية الحديثة.

دليل «غوغل»

ووفقاً لدليل «غوغل» الخاص ب«أساسيات الذكاء الاصطناعي» بالتعاون مع «معهد أكسفورد للإنترنت»، يمكن للذكاء الاصطناعي المساعدة على رصد محتوى «التزييف العميق» الذي يتم عبر استخدام صور أو مواد صوتية أو موسيقى أو فيديوهات مزيّفة يتم إنشاؤها باستخدام الذكاء الاصطناعي.

وبحسب الدليل، تعمل برامج «التزييف العميق» من خلال دراسة صوت حقيقي أو صورة حقيقية وتحليل هذا الصوت أو الصورة بشكل تفصيلي، ثم التلاعب بهما لإنشاء مواد مزيّفة قريبة إلى الواقع بشكل كبير. ومع ذلك، هناك بعض العلامات التي يمكن من خلالها التمييز بين المحتوى المزيّف والمحتوى الحقيقي. على سبيل المثال، قد يبدو الصوت في فيديو مزيّف شبيهاً بصوت آلي، كما ترمش أعين الأشخاص بمعدل أقل من الطبيعي أو تتكرّر حركات أيديهم نفسها بشكل ملحوظ وهنا يأتي دور أنظمة الذكاء الاصطناعي في رصد هذه المؤشرات وكشف محتوى «التزييف العميق».

ارتفاع كبير

وكشفت شركة «غروب-آي بي»، العالمية مؤخراً عن تحليلها لمشهد التهديد الإلكترونية الأكثر انتشاراً على مستوى العالم بالتأكيد على أن عمليات «التزييف العميق» والتزييف الصوتي ستشهد ارتفاعاً كبيراً، فقد باتت هذه العليات من أكثر طرق الاحتيال شيوعاً، ويتوقع الخبراء استخدام أدوات إزالة الهوية للقيام بالمزيد من عمليات الابتزاز وإضفاء الطابع الشخصي على الضحية.

لغط قانوني

ولم تكن عملاقة التقنية «غوغل» الوحيدة التي عملت على تقنين «التزييف العميق» (deepfake)، بعد أن حظرت مؤخراً خوارزميات هذه التقنية المتقدمة من Google Colaboratory، خدمة الحوسبة المجانية التي تتيح إمكانية الوصول إلى وحدات معالجة الرسومات في الأجهزة. فالعديد من الولايات الأمريكية وضعت تشريعات تنظم وتقنّن استخدام التزييف العميق، أما الصين فتعمل على مشروع قانون يتطلب وجود هوية تعريفية للمحتوى التي يتم إنشاؤه باستخدام الحاسوب، فيما قد تتضمن لائحة الاتحاد الأوروبي التشريعية المرتقبة لتنظيم الذكاء الاصطناعي بنداً حول هذه التقنية المثيرة للجدل.

حل تقني موثوق

ويوضّح خبراء شركة «كاسبرسكي» العالمية للمستخدمين سبل اكتشاف التزييف العميق أن التزييف العميق المقنِع، يتطلب الكثير من الخبرة والجهد، ولا يزال يميل إلى انخفاض الجودة ويمكن رصده ويمكن أن تذهب جهود هواة التزييف العميق سُدى بسبب التنفيذ السيئ للملابس أو مرور يد أمام الوجه في الفيديو يمكن أن يتيح وجود حل تقني موثوق به دعماً جيداً إذا أدى مقطع مبني على التزييف العميق عالي الجودة إلى إقناع المستخدم بتنزيل ملفات أو برمجيات خبيثة، أو زيارة روابط مشبوهة أو مواقع ويب تصيّدية.

مستويات الوعي

وتؤكد شركة «بالو ألتو نتوركس» استمرار هجمات طلب الفدية الخبيثة في الانتشار ضمن صفحات الإنترنت المخفية والمشفّرة مدعومة بضعف مستويات الوعي والمعرفة فيما يتعلق بآليات الحماية، والتي تتركز على سرعة الاتصالات بسبب انتشار تقنيات الاتصالات من الجيل الخامس والذكاء الاصطناعي وإنترنت الأشياء وغيرها من التقنيات. وذكرت «بالو ألتو نتوركس»، أنه على الرغم من ارتفاع سلوكيات الهجوم عبر شبكة الإنترنت باستخدام تقنيات الذكاء الاصطناعي، مثل عمليات انتحال الهوية من خلال أدوات التزييف العميق، فإننا لا نزال في المراحل الأولى بما يتعلق بكامل الإمكانات التي يمكن أن تتحلى بها الهجمات المدعومة بالذكاء الاصطناعي. وفي الجانب الآخر، فإننا نرى زيادة في أعداد مستخدمي تقنيات الذكاء الاصطناعي للدفاع عن أنفسهم.

تطوير إجراءات مضادة للتزييف ضرورة

يقول باسل ماكلاي، المدير الاستراتيجي لتطوير الأعمال في شركة «آي دي ناو» الشرق الأوسط، المتخصصة في أنظمة التحقق من الهوية الرقمية ل«الخليج»: «تزايد الحديث عن «التزييف العميق (Deepfakes)» والمخاوف حول استخدامها لارتكاب الجرائم المالية والمعلوماتية أو غيرها». وأضاف: «بسبب توافر قواعد بيانات الوجه على نطاق واسع والتقدم الذي يحرزه التعلم الآلي بدأ مستخدمو التزييف العميق يتوجهون نحو تزوير الهويات، ما يسبب تحدياً كبيراً لمزودي خدمات التحقق من الهوية، وبالتالي تطوير إجراءات مضادة لهذه العمليات وبسرعة».

ونظراً لتزايد مستوى تطورهم بوتيرة سريعة، توجه معظم الفاعلين والجهات المختصة في خدمات النظام البيئي التابع للتحقق من الهوية للعمل عن كثب لتطوير حلول لكشف التزييف العميق بشكل أفضل.

وأوضح ماكلاي، أنه سواء كان التزييف العميق يتم من خلال الأساليب وتقنيات التحقيق الشرعي، أي تلك التي استخدمها فريق Facebook-Michigan State الذين اكتشفوا أن حتى تقنية الذكاء الاصطناعي المتطور والمعقد والمصمم لإنشاء محتوى اصطناعي يمكن أن يترك البصمات الرقمية، أو من خلال أطر عمل شاملة تتألف من طبقات أمنية متعددة مثل التقنيات والوحدات؛ حيث أصبح من الممكن دائماً منع التزييف العميق.

وأشار ماكلاي، إلى أن القياسات الحيوية البيومترية، توفر ما يسمى ب «كشف القياسات الحيوية للوجه» (liveness detection) نتائج أفضل للكشف عن المحتالين من خلال قدرة الكمبيوتر على تحديد ما إذا كان يتفاعل مع شخص حقيقي أو جماد أو صورة أو فيديو مستخدم.

وقال ماكلاي: «إن الذكاء الاصطناعي المتطور والمُعقد بإمكانه أن يحدد في حال كان التفاعل يتم مع إنسان حي متواجد فعلياً، لذا، فالمحتالون الذين يستخدمون مقاطع فيديو مزيفة أو صوراً مسروقة أو أقنعة للدخول وإنشاء الحسابات عبر الإنترنت سيتم الكشف عن حساباتهم وإيقافها».

التقييمات
قم بإنشاء حسابك لتتمكن من تقييم المقالات

لاستلام اشعارات وعروض من صحيفة "الخليج"