مخاطر الذكاء الاصطناعي

00:46 صباحا
قراءة دقيقتين
افتتاحية الخليج

مع التقدم الهائل في أنظمة الذكاء الاصطناعي الذي تحقق خلال السنوات الأخيرة، بدأت بعض الأصوات ترتفع محذرة من خطورة تأثيره السلبي في البشرية مستقبلاً، رغم فوائده الإيجابية، خصوصاً إذا ما تم استخدام الذكاء الاصطناعي خارج إطار المصلحة الإنسانية وبما يتنافى مع المعايير الأخلاقية والقوانين الدولية.
 مفوضية الأمم المتحدة لحقوق الإنسان كانت قد حذرت من أن الذكاء الاصطناعي قد يحمل «آثاراً سلبية، لا بل كارثية على الإنسان وحقوقه». كما كانت شخصيات علمية وسياسية وازنة مثل العالم ستيفن هوكينج، أبدت مخاوفها من التطور الذي تشهده أجهزة الذكاء الاصطناعي، خصوصاً لجهة عدم القدرة على التحكم بها أو السيطرة عليها، مع استمرار وتيرة ثورة التكنولوجيا هذه، حيث تشير التقديرات مثلاً إلى أن ثلث الوظائف في منتصف ثلاثينات القرن الحالي قد تتحول إلى الأتمتة، ما يعني أن ملايين الموظفين والعمال سوف يفقدون وظائفهم.
 وقد حذرت ورقة بحثية أصدرها خبراء في الذكاء الاصطناعي في المجالين الصناعي والأكاديمي بعنوان «الاستخدام الضار للذكاء الاصطناعي: التنبؤ والوقاية والتخفيف»، من أن هذا القطاع سيؤثر سلباً في الجنس البشري وسيؤدي في لحظة ما إلى أضرار جسيمة في عدة جوانب حساسة في حياته. واعتبرت الورقة أن«الاستخدام المزدوج» وقدرة الأجهزة التقنية على اتخاذ آلاف القرارات المعقدة في الثانية الواحدة يمكن استخدامها في النقيضين، إما لمنفعة الناس وإما لإيذائهم».
 لكن يبدو أن الخطر الأكبر الذي يهدد البشرية هو مسارعة الدول الكبرى إلى استخدام الذكاء الاصطناعي بشكل واسع للأغراض العسكرية، وهو ما تفعله خصوصاً الولايات المتحدة وروسيا والصين، إذ خصصت ميزانيات ضخمة لهذا الغرض، كما أنها ترفض فرض حظر على هذه الأسلحة أو تقييد استخدامها.
 مثلاً، أصدرت لجنة يرأسها المدير السابق لجوجل لاريك شميت، تقريراً تم رفعه إلى الرئيس جو بايدن مؤخراً، يدعو الولايات المتحدة وحلفاءها إلى رفض حظر عالمي على أنظمة الأسلحة التي تعمل بالذكاء الإصطناعي. وقال التقرير، إن استخدام الذكاء الاصطناعي «سيقلص فترات اتخاذ القرارات» ويمكّن من القيام بردود عسكرية لا يمكن للبشر أن يقوموا بها بمفردهم. ويقول نول شاركي الناطق باسم حملة إيقاف الربوبوتات القاتلة «هذا تقرير مرعب قد يؤدي إلى انتشار الأسلحة التي تعمل بالذكاء الاصطناعي التي تصدر بمفردها قرارات حول من ينبغي قتله».
 من جهته حذر البروفيسور جيمس داور من كلية ماكليستر الأمريكية، من أن سباق التسلح القائم على صناعة «روبوتات قاتلة» يمكن أن يقضي على البشرية إذا ترك من دون رادع، وأضاف: إن الأخطاء الخوارزمية التي لا مفر منها قد تؤدي إلى القضاء على مدن بأمكلها، فيما قال أستاذ معهد ماساتشوستس للتكنولوجيا ماكس تيجمارك «هذه التكنولوجيا تتطور بشكل أسرع بكثير من النقاش العسكري السياسي»، وتابع«يمكن القول إننا نتجه بشكل افتراضي إلى أسوأ نتيجة ممكنة».
 هو سباق تسلح جديد وخطرلأن القرارات لا يتخذها البشر، إنما الآلات.

عن الكاتب

المزيد من الآراء

لاستلام اشعارات وعروض من صحيفة "الخليج"