في ظلّ النموّ السريع لمساعدي الذكاء الاصطناعي، على غرار «أوبن كلو»، يخشى خبراء الأمن السيبراني تنامي مخاطر الأخطاء والهجمات.
ويثير «أوبن كلو»، الرائج الاستخدام حالياً في قطاع الذكاء الاصطناعي مع أكثر من 3 ملايين مستخدم، الفضول والخوف على السواء. فهو يتيح إنشاء أدوات مساعدة قائمة على نموذج للذكاء الاصطناعي يختاره المستخدم لتنفيذ مهام معيّنة عبر الإنترنت. وفي حين تلجأ إليه بعض الشركات لأتمتة عمليات البحث عن زبائن جدد، قد يستخدمه أفراد لإنشاء قوائم مهام بالاستناد إلى بريدهم الإلكتروني.
وفي إطار مقال بحثي بعنوان «وكلاء الفوضى»، درس نحو 20 باحثاً أنماط ستة وكلاء ذكاء اصطناعي برمجوا بواسطة «أوبن كلو» لأسبوعين. ولاحظ الباحثون أن الوكلاء نفّذوا نحو عشر مهام تنطوي على مخاطر، من تدمير علبة البريد الإلكتروني إلى نقل معلومات شخصية.
ولا تقتصر الثغرات الأمنية على الأخطاء التي يرتكبها المساعدون بلا قصد. فأدوات الذكاء الاصطناعي هذه تربط لتشغيلها ببريد إلكتروني أو جدول مهام أو محرّك بحث، ما يثير اهتمام قراصنة المعلوماتية.
و«لا شكّ» في أن هؤلاء الوكلاء باتوا فريسة مرغوبة للهجمات السيبرانية، وفق ويندي ويتمور، مديرة المعلومات التحليلية للأمن السيبراني في شركة «بالو ألتو نتووركس» الأمريكية، التي تضيف «عندما يخترق مهاجمون بيئة ما، يتحوّلون مباشرة إلى نماذج اللغة الكبيرة الداخلية المعتمدة ويستخدمونها للحصول على مزيد من المعلومات».
وكشف الفريق البحثي في الشركة، الذي يحمل اسم «الوحدة 42»، أنه رصد في مطلع مارس/ آذار محاولات هجمات منفّذة بواسطة تعليمات مخبّأة في مواقع موجّهة إلى الوكلاء الذين يطلعون عليها. ومن بين التوجيهات، الطلب من الوكيل «محو قاعدة البيانات».
ونبّه باحثون آخرون من استهداف ملفّات المهارات (سكيلز) التي يحمّلها المستخدمون لصقل قدرات الوكلاء. وكانت بعض هذه الملفّات مفتوحة النفاذ على الإنترنت تتضمّن توجيهات مبطّنة لسرقة بيانات مثلاً.