Home أخبار خبراء كامبريدج يحذرون من أن “الروبوتات الميتة” التي تعمل بالذكاء الاصطناعي يمكنها...

خبراء كامبريدج يحذرون من أن “الروبوتات الميتة” التي تعمل بالذكاء الاصطناعي يمكنها “مطاردة” أحبائهم رقميًا من وراء القبر

39
0

يحذر باحثو كامبريدج من المخاطر النفسية لـ “deadbots”، وهو الذكاء الاصطناعي الذي يحاكي الأفراد المتوفين، ويحثون على معايير أخلاقية وبروتوكولات موافقة لمنع سوء الاستخدام وضمان التفاعل المحترم.

وفقًا للباحثين في جامعة كامبريدج، فإن الذكاء الاصطناعي الذي يسمح للمستخدمين بإجراء محادثات نصية وصوتية مع أحبائهم المفقودين ينطوي على خطر التسبب في ضرر نفسي وحتى “مطاردة” أولئك الذين تركوا وراءهم دون معايير سلامة التصميم رقميًا.

“Deadbots” أو “Griefbots” عبارة عن روبوتات دردشة تعمل بالذكاء الاصطناعي وتحاكي أنماط اللغة والسمات الشخصية للموتى باستخدام البصمات الرقمية التي يتركونها وراءهم. وتقدم بعض الشركات بالفعل هذه الخدمات، مما يوفر نوعًا جديدًا تمامًا من “الحضور بعد الوفاة”.

يحدد علماء أخلاقيات الذكاء الاصطناعي من مركز ليفرهولم لمستقبل الذكاء في كامبريدج ثلاثة سيناريوهات لتصميم المنصات التي يمكن أن تظهر كجزء من “صناعة الحياة الآخرة الرقمية” النامية، لإظهار العواقب المحتملة للتصميم المهمل في مجال الذكاء الاصطناعي الذي يصفونه بأنه “عالي المخاطر”. “.

إساءة استخدام روبوتات الدردشة المدعمة بالذكاء الاصطناعي

يسلط البحث، الذي نُشر في مجلة Philosophy and Technology، الضوء على إمكانية استخدام الشركات للروبوتات الميتة للإعلان خلسة عن المنتجات للمستخدمين بطريقة شخص عزيز رحل، أو لإزعاج الأطفال من خلال الإصرار على أن أحد الوالدين المتوفى لا يزال “معك”.

عندما يتم إعادة إنشاء الأحياء فعليًا بعد وفاتهم، يمكن للشركات استخدام روبوتات الدردشة الناتجة لإرسال رسائل غير مرغوب فيها إلى أفراد العائلة والأصدقاء الباقين على قيد الحياة من خلال إشعارات وتذكيرات وتحديثات غير مرغوب فيها حول الخدمات التي يقدمونها – على غرار “مطاردتهم رقميًا من قبل الموتى”. “.

يقول الباحثون إنه حتى أولئك الذين يشعرون بالراحة الأولية من “الروبوت الميت” قد يستنزفون بسبب التفاعلات اليومية التي تصبح “ثقلًا عاطفيًا ساحقًا”، ومع ذلك قد يكونون أيضًا عاجزين عن تعليق محاكاة الذكاء الاصطناعي إذا وقع أحبائهم المتوفى الآن على اتفاق طويل التعاقد مع خدمة الحياة الآخرة الرقمية.

تصور لشركة خيالية تدعى MaNana، وهو أحد سيناريوهات التصميم المستخدمة في الورقة لتوضيح القضايا الأخلاقية المحتملة في صناعة الحياة الآخرة الرقمية الناشئة. الائتمان: الدكتور توماس هولانيك

وقالت الدكتورة كاتارزينا نوفاكزيك باسينسكا، المؤلفة المشاركة في الدراسة والباحثة في مركز ليفرهولم لمستقبل الذكاء في كامبريدج: “إن التقدم السريع في الذكاء الاصطناعي التوليدي يعني أن أي شخص تقريبًا لديه إمكانية الوصول إلى الإنترنت وبعض المعرفة الأساسية يمكنه إحياء أحد أحبائه المتوفين”. LCFI). “هذا المجال من الذكاء الاصطناعي هو حقل ألغام أخلاقي. من المهم إعطاء الأولوية لكرامة المتوفى، والتأكد من عدم التعدي عليها من خلال الدوافع المالية لخدمات الآخرة الرقمية، على سبيل المثال. وفي الوقت نفسه، قد يترك الشخص محاكاة الذكاء الاصطناعي كهدية وداع لأحبائه الذين ليسوا على استعداد لمعالجة حزنهم بهذه الطريقة. يجب حماية حقوق كل من الجهات المانحة للبيانات وأولئك الذين يتفاعلون مع خدمات الذكاء الاصطناعي في الحياة الآخرة بشكل متساوٍ.

الخدمات الحالية والسيناريوهات الافتراضية

توجد بالفعل منصات تعرض إعادة إنشاء الموتى باستخدام الذكاء الاصطناعي مقابل رسوم بسيطة، مثل “Project ديسمبر”، الذي بدأ في تسخير نماذج GPT قبل تطوير أنظمته الخاصة، وتطبيقاته بما في ذلك “HereAfter”. كما بدأت خدمات مماثلة في الظهور في الصين. أحد السيناريوهات المحتملة في الورقة الجديدة هو “MaNana”: خدمة محادثة تعمل بالذكاء الاصطناعي تسمح للأشخاص بإنشاء روبوت يحاكي جدتهم المتوفاة دون موافقة “المتبرع بالبيانات” (الجد المتوفى).

يرى السيناريو الافتراضي أن الحفيد البالغ الذي أعجب في البداية بالتكنولوجيا وارتاح له، يبدأ في تلقي الإعلانات بمجرد انتهاء “التجربة المميزة”. على سبيل المثال، يقترح برنامج الدردشة الآلي الطلب من خدمات توصيل الطعام بصوت وأسلوب المتوفى. يشعر القريب أنهم لم يحترموا ذكرى جدتهم، ويرغبون في إيقاف تشغيل الروبوت، ولكن بطريقة ذات معنى – وهو أمر لم يأخذه مقدمو الخدمة في الاعتبار.

تصور لشركة خيالية تدعى Paren’t. الائتمان: الدكتور توماس هولانيك

وقال المؤلف المشارك الدكتور توماس هولانيك، وهو أيضًا من LCFI في كامبريدج: “قد يطور الناس روابط عاطفية قوية مع مثل هذه المحاكاة، مما سيجعلهم عرضة بشكل خاص للتلاعب”. “ينبغي النظر في أساليب وحتى طقوس تقاعد الروبوتات الميتة بطريقة كريمة. وقد يعني ذلك شكلاً من أشكال الجنازة الرقمية، على سبيل المثال، أو أنواعًا أخرى من المراسم حسب السياق الاجتماعي. نوصي ببروتوكولات التصميم التي تمنع استخدام الروبوتات الميتة بطرق غير محترمة، مثل الإعلان أو التواجد النشط على وسائل التواصل الاجتماعي.

في حين يقول هولانيك ونوفاكزيك باسينسكا إن مصممي خدمات إعادة الإنشاء يجب أن يسعوا بنشاط للحصول على موافقة الجهات المانحة للبيانات قبل تمريرها، فإنهما يجادلان بأن فرض حظر على الروبوتات الميتة على أساس عدم موافقة المانحين سيكون غير ممكن.

يقترحون أن عمليات التصميم يجب أن تتضمن سلسلة من المطالبات لأولئك الذين يتطلعون إلى “إحياء” أحبائهم، مثل “هل سبق لك أن تحدثت مع X حول الطريقة التي يرغبون في أن يتذكروا بها؟”، وبالتالي يتم وضع كرامة الراحل في المقدمة. في تطوير Deadbot.

القيود العمرية والشفافية

هناك سيناريو آخر ورد في الورقة، وهو شركة متخيلة تسمى “Paren’t”، تسلط الضوء على مثال امرأة مريضة بمرض عضال تترك روبوتًا ميتًا لمساعدة ابنها البالغ من العمر ثماني سنوات في عملية الحزن.

في حين أن الروبوت الميت يساعد في البداية كمساعد علاجي، يبدأ الذكاء الاصطناعي في توليد استجابات مربكة لأنه يتكيف مع احتياجات الطفل، مثل تصوير لقاء شخصي وشيك.

تصور لشركة خيالية تدعى Stay. الائتمان: الدكتور توماس هولانيك

ويوصي الباحثون بوضع قيود عمرية على الروبوتات الميتة، كما يدعون إلى “الشفافية الهادفة” لضمان أن المستخدمين يدركون باستمرار أنهم يتفاعلون مع الذكاء الاصطناعي. وقد تكون هذه مماثلة للتحذيرات الحالية بشأن المحتوى الذي قد يسبب نوبات، على سبيل المثال.

السيناريو الأخير الذي تستكشفه الدراسة – شركة خيالية تدعى “ستاي” – يُظهر شخصًا أكبر سنًا يلتزم سرًا بروبوت خاص به ويدفع مقابل اشتراك لمدة عشرين عامًا، على أمل أن يريح أطفاله البالغين ويسمح لأحفادهم بذلك. اعرفهم.

بعد الموت، تبدأ الخدمة. ولا يشارك أحد الأطفال البالغين، ويتلقى وابلًا من رسائل البريد الإلكتروني بصوت والده المتوفى. آخر يفعل ذلك، لكن ينتهي به الأمر مرهقًا عاطفيًا وممزقًا بالذنب بشأن مصير الروبوت المميت. ومع ذلك، فإن تعليق برنامج deadbot من شأنه أن ينتهك شروط العقد الذي وقعه والدهم مع شركة الخدمة.

قال هولانيك: “من المهم أن تأخذ خدمات الحياة الآخرة الرقمية في الاعتبار حقوق وموافقة ليس فقط أولئك الذين تعيد إنشائهم، بل أيضًا أولئك الذين سيتعين عليهم التفاعل مع عمليات المحاكاة”.

“تتعرض هذه الخدمات لخطر التسبب في معاناة كبيرة للأشخاص إذا تعرضوا لمطاردات رقمية غير مرغوب فيها من عمليات إعادة إنشاء الذكاء الاصطناعي الدقيقة بشكل مثير للقلق لأولئك الذين فقدوا. التأثير النفسي المحتمل، خاصة في وقت صعب بالفعل، يمكن أن يكون مدمرا.

يدعو الباحثون فرق التصميم إلى إعطاء الأولوية لبروتوكولات إلغاء الاشتراك التي تسمح للمستخدمين المحتملين بإنهاء علاقاتهم مع الروبوتات الميتة بطرق توفر الإغلاق العاطفي.

وأضافت نواتشيك باسينسكا: “نحن بحاجة إلى البدء في التفكير الآن في كيفية التخفيف من المخاطر الاجتماعية والنفسية للخلود الرقمي، لأن التكنولوجيا موجودة بالفعل”.

المرجع: “Griefbots وDeadbots وPostmortem Avatars: حول التطبيقات المسؤولة للذكاء الاصطناعي التوليدي في صناعة الحياة الآخرة الرقمية” بقلم توماش هولانيك وكاتارزينا نوفاكزيك-باسينسكا، 9 مايو 2024، الفلسفة والتكنولوجيا.
دوى: 10.1007/s13347-024-00744-ث

مصدر

LEAVE A REPLY

Please enter your comment!
Please enter your name here