عادي
تمثيل افتراضي للمتوفين بالذكاء الاصطناعي

حياة الأموات الرقمية.. حقل ألغام أخلاقي

00:15 صباحا
قراءة 3 دقائق

إعداد: مصطفى الزعبي
حذر باحثون جامعيون بقيادة جامعة كامبريدج البريطانية، خلال دراسة، من تقنية الذكاء الاصطناعي التي قد تسمح للناس بالتحدث إلى الموتى، ويشرح الباحثون أن «Dead bots» أو «Grief bots» عبارة عن روبوتات دردشة ذكية تحاكي أنماط اللغة والسمات الشخصية للموتى باستخدام البصمات الرقمية التي يتركونها وراءهم، وكان لهذه التكنولوجيا التي تتحرك للأمام بوتيرة سريعة أن تتسبب في مشاكل نفسية عميقة لكثير من ذوي المتوفَّين، بسبب تلك الفكرة المخيفة.

أصبح مفهوم الحياة الرقمية للأموات ذات أهمية متزايدة، مع استمرار تطور التكنولوجيا، وفكرة إنشاء روبوتات محادثة أو تمثيل افتراضي للأفراد المتوفَّين تثير اعتبارات أخلاقية وعاطفية مهمة.

فكرة التفاعل مع نسخة رقمية من أحد أفراد أسرته توفر الراحة والعزاء للبعض، لكنها تشكل أيضاً خطر «المطاردة» غير المرغوب فيها من قبل روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، والتي تحاكي سلوك وشخصية المتوفَّى، وهذه الكيانات، إذا لم يتم حمايتها بشكل صحيح، يمكن أن تسبب الضيق والاضطراب العاطفي لذوي الأموات.

وبينما نتعامل مع تعقيدات حياة الأموات الرقمية، فمن الأهمية وضع ضمانات لمنع روبوتات الدردشة الخاصة بالأحباء المتوفَّين من التسبب في ضرر غير مقصود، وبدون وجود اللوائح والمبادئ التوجيهية المناسبة، هناك خطر من أن تؤدي إلى إدامة الحزن والارتباك وحتى الضيق النفسي.

وكان أحد المخاوف الرئيسية المحيطة بروبوتات الدردشة المدعمة بالذكاء الاصطناعي هو احتمال تجاوزها للحدود والتطفل على عملية الحزن، في حين أن القصد قد يكون الحفاظ على الذكريات وتسهيل التواصل، إلا أن عدم السيطرة على هذه التمثيلات الافتراضية يمكن أن يؤدي إلى عواقب غير مقصودة.

ولمواجهة هذه التحديات، من الضروري للمطورين وشركات التكنولوجيا إعطاء الأولوية للاعتبارات الأخلاقية عند إنشاء روبوتات الدردشة المدعمة بالذكاء الاصطناعي للمتوفَّين، ويجب أن تكون الشفافية والموافقة والتحكم في المستخدم في طليعة أي تقنية رقمية لضمان حماية السلامة العاطفية للمستخدمين.

علاوة على ذلك، فإن وضع مبادئ توجيهية واضحة لإنشاء واستخدام روبوتات الدردشة المدعمة بالذكاء الاصطناعي يمكن أن يساعد في التخفيف من مخاطر «المطاردة» غير المرغوب فيها، وضمان استخدام هذه التقنيات بمسؤولية واحترام، ومن خلال تنفيذ ضمانات مثل الحدود الزمنية ومتطلبات الموافقة وضوابط المستخدم، يمكننا إنشاء تجربة رقمية أكثر أخلاقية.

وأكدت البروفيسورة كاتارزينا نوفاكزيك باسينسكا، الباحثة الرئيسية المشاركة في الدراسة، من مركز ليفرهولم لمستقبل الذكاء في كامبريدج، السبب الذي يجعل مثل هذه الأدوات خطيرة، ونصحت بالحذر داخل الصناعة. وقالت: «هذا المجال، حقل ألغام أخلاقي، ومن المهم إعطاء الأولوية لكرامة المتوفى، والتأكد من عدم التعدي عليها من خلال الدوافع المالية لمثل هذه الخدمات، على سبيل المثال، قد يترك الشخص محاكاة الذكاء الاصطناعي كهدية وداع لأحبائه الذين ليسوا على استعداد لمعالجة حزنهم بهذه الطريقة، ويجب حماية حقوق كل من الجهات المانحة للبيانات والذين يتفاعلون مع هذه الخدمات».

وعلى سبيل المثال أصيب أرتور سيتشوف، رجل الأعمال التكنولوجي، بالصدمة عندما تم تشخيص إصابة والده بالسرطان، وتقبل أنه يأتي يوم لن يتمكن فيه من التحدث معه مرة أخرى، لذا ابتكر أرتور، 38 عاماً، أداة جديدة للواقع الافتراضي تُعرف باسم «Live Forever»، والتي يبدو أنها جاهزة لإنتاج بعض الأشياء المثيرة.

وتحتوي الأداة على صور رمزية رقمية يمكنها محاكاة صوت الشخص وسلوكياته وحركاته، وهو أمر يمكن تحقيقه من خلال 30 دقيقة فقط.

ويقول أرتور: «الهدف من «العيش للأبد» هو أن تعيش الصورة الرمزية لشخص عزيز متوفَّى على الإنترنت إلى الأبد حتى تتمكن الأجيال القادمة من التفاعل مع أحبائهم الراحلين».

وتابع: «ظهور روبوتات الدردشة في حياة الأموات الرقمية، يمثل فرصاً وتحديات، وفي حين أن لديها القدرة على توفير الراحة والتواصل للذين فقدوا أحباءهم، فإنها تحمل خطر التسبب في ضرر غير مقصود، إذا لم يتم تنظيمها بشكل صحيح».

وأشار إلى أن من خلال الدعوة إلى الضمانات التي تعطي الأولوية للاستخدام الأخلاقي والشفافية والتحكم في المستخدم، يمكننا المساعدة في منع «مطاردة» أحبائهم المتوفَّين من قبل روبوتات الدردشة المدعمة بالذكاء الاصطناعي وضمان بقاء حياة الأموات الرقمية مساحة للشفاء والتذكر.

التقييمات
قم بإنشاء حسابك لتتمكن من تقييم المقالات
https://tinyurl.com/4jnsx554

لاستلام اشعارات وعروض من صحيفة "الخليج"