Ad

تخيل أن تتحدث مع شخصٍ عزيزٍ عليك قد فارق الحياة؛ تتحدث معه وتسمع صوته بل وتشعر بوجوده وكأنه ماثلٌ أمامك. على الرغم من أن هذا السيناريو قد يعد ضربًا من الخيال، فإن الذكاء الاصطناعي له رأي آخر تمامًا. تعرَّف على “روبوتات الموتى- Deadbots”، وفي روايةٍ أخرى “روبوتات الحزن- Griefbots”، وهي روبوتات دردشة تعمل بالذكاء الاصطناعي لمحاكاة أنماط اللغة والسمات الشخصية للمتوفى باستخدام ما يُعرَف بالأثر الرقمي digital footprint، والتي على قدر الثورة التي تعد بها، فإنها أيضًا تثير تساؤلات أخلاقية جسيمة.

حدد باحثون من “مركز ليفرهولم لمستقبل الذكاء” في كامبريدج ثلاثة سيناريوهات لتصميم هذه “البوتات” التي يمكن أن تظهر كجزء من “صناعة الحياة الرقمية الآخرة”. وهذه السيناريوهات بدورها تسلط الضوء على العواقب المحتملة لـ “روبوتات الموتى”. نظرًا لأن الشركات تقدم هذه الخدمات بالفعل، فمن الضروري مراعاة كرامة المتوفى والتأثير المحتمل على أولئك الذين يتفاعلون مع هذه المحاكاة.

وتحذر الدراسة، التي نشرت في مجلة “الفلسفة والتكنولوجيا- Philosophy and Technology، من إمكانية استغلال “روبوتات الموتى” في الترويج للمنتجات أو إثارة حفيظة الأطفال باللعب على مشاعرهم وتجسيد أحبائهم الذين فارقوا الحياة. ويرى الباحثون أنه يجب على المصممين إعطاء الأولوية لكرامة المتوفى والتأكد من أن الدوافع المالية لا تتعدى على حقوق كل من الجهات المانحة للبيانات وأولئك المستفيدين من الخدمة.

ليست فكرةً جديدة

على الرغم من أن فكرة إعادة إحياء الموتى قد تبدو فكرةً جديدة، فإنها ليست كذلك، ففي اليونان القديمة -على سبيل المثال- آمن الناس بمفهوم “الكليوس- Kleos“، حيث كان يُعتقد أن إرث الشخص وإنجازاته سيورّثان لسلفه ويتجسدان فيه بعد الممات. ومع مرور الوقت والتقدم التقني الهائل الذي وصلنا له، تطورت هذه الفكرة بشكلٍ ملحوظ.

أما المفهوم الحديث للخلود الرقمي، فيعود للستينيات عندما رصد علماء الكمبيوتر مثل آلان تورينج ومارفن مينسكي قدرات الذكاء الاصطناعي ومهدوا الطريق لتطوير روبوتات الدردشة، والتي يمكنها محاكاة المحادثات الإنسانية. وفي التسعينيات، وتحديدًا عندما انتشر الإنترنت على نطاق واسع، بدأت فكرة الإرث الرقمي في التبلور.

ومع ظهور منصات التواصل الاجتماعي، بدأ الناس يتركون وراءهم بصمات رقمية، والتي يمكن استخدامها لإعادة إحياء وجودهم عبر الإنترنت حتى بعد الموت. اكتسب هذا المفهوم زخمًا مع ظهور نماذج اللغة المدعومة بالذكاء الاصطناعي، والتي يمكن أن تولد نصًا وكلامًا يشبه الإنسان بفضل ما يُسمى بمعالجة اللغة الطبيعية NLP (تقنية تُمكن الآلات من فهم لغة البشر). أصبحت إمكانية إعادة إنشاء أنماط اللغة والسمات الشخصية للشخص المتوفى باستخدام خوارزميات الذكاء الاصطناعي حقيقة ملموسة.

في السنوات الأخيرة، بدأت الشركات تقدم “خدمات رقمية للحياة الآخرة”، مما يسمح للأشخاص بإنشاء نسخة من أحبائهم المتوفين كروبوتات دردشة تعمل بالذكاء الاصطناعي قادرة على التحدث، ومشاركة الذكريات، وحتى إبداء التعاطف. ورغم أن هذه التكنولوجيا تبشر بالخير، فإنها تثير أيضاً أسئلة أخلاقية مهمة حول كرامة المتوفى، وموافقته على “إعادته للحياة”، والمخاطر المحتملة للتلاعب.

هل من حقنا استخدام الذكاء الاصطناعي “لإحياء الموتى”؟

يحذر باحثو كامبريدج من إمكانية إساءة استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي لاستغلال الآخرين، وبخاصة هؤلاء الذين يفتقدون موتاهم بشدة، ولا ننسى أن الذكاء الاصطناعي أحيانًا ما يكون مُخادعًا ولا يمكن الاعتماد عليه بشكل كامل.

تخيل أن تتلقى رسالة من أحد أحبائك المتوفين يخبرك فيها بمدى افتقاده لك ويقترح عليك تجربة منتج أو خدمة جديدة، ألن تأخذ هذا الطلب على عاتقك وتُنفذه؟ ولكن ماذا لو لم تكن هذه الرسالة من المتوفين أنفسهم، وإنما من مطوري أو مستخدمي هذه البرامج الذين استغلوا عاطفتك أسوأ استغلال؟

يسلط الباحثون الضوء على الحاجة إلى بروتوكولات تمنع استخدام الـ “deadbots” لأغراض غير شرعية، مثل الإعلانات أو التواجد على وسائل التواصل الاجتماعي. كما يؤكدون على أهمية إعطاء الأولوية لكرامة المتوفى وضمان احترام إرثهم الرقمي.

ولكن ماذا عن حقوق أولئك الذين يتفاعلون مع خدمات الذكاء الاصطناعي في الحياة الآخرة؟ يرى الباحثون أنه من الضروري مراعاة السلامة العاطفية للمستخدمين الذين قد يطورون روابط عاطفية قوية مع روبوتات الموتى. وهذا يثير تساؤلات حول مسؤولية مقدمي الخدمات في التأكد من أن المستخدمين على علم بأنهم يتفاعلون مع محاكاة الذكاء الاصطناعي، وليس مع الشخص الحقيقي.

أحد الحلول المحتملة أيضًا هو فرض قيود عمرية على هذه النوعية من الروبوتات وتوفير “شفافية ذات معنى” حول طبيعة تفاعلات الذكاء الاصطناعي. قد يتضمن ذلك تحذيرات أو إخلاء مسؤولية، مشابهة لتلك المستخدمة لتنبيه المستخدمين بشأن المحتوى الضار على وسائل التواصل.

في نهاية المطاف، تتلخص أخلاقيات “روبوتات الموتى” في سؤال أساسي واحد: كيف نضمن أن محاكاة الذكاء الاصطناعي هذه مصممة لاحترام كرامة المتوفى ومشاعر أولئك الذين يتركونهم وراءهم؟ من خلال دراسة العواقب المحتملة للتصميم المهمل، يمكننا أن نبدأ في وضع إرشادات لنهج أكثر رحمة ومسؤولية تجاه خدمات الحياة الآخرة الرقمية.

المآلات المؤسفة لـ “روبوتات الموتى” والذكاء الاصطناعي

مع التوسع السريع في صناعة “الحياة الآخرة الرقمية”، فإن خطر التصميم المهمل يلوح في الأفق بشكل كبير. دلل الباحثون من مركز ليفرهولم المذكور على سلبيات “روبوتات الموتى” بـ 3 سيناريوهات مُحتملة أيضًا، كان منها سيناريو حول روبوت يُدعى “MaNana”، أو جدتي”، وهو خدمة ذكاء اصطناعي قائمة على الدردشات لمحاكاة الجدّات المتوفاة.

استخدم حفيدٌ بالغ هذه الخدمة وشعر بارتياحٍ شديد في البداية، ولكنه سرعان ما انزعج عندما عرضت هذه الخدمة إعلانًا ترويجيًا لخدمات توصيل الطعام مما أفقد التجربة معناها.

يُجسد هذا السيناريو رأسمالية هذه التطبيقات وجشعها المادي أكثر من أي شيء آخر، فهي بعيدة تمامًا عن احترام أبسط حقوق الموتى، فضلًا عن الاعتبارات الأخرى التي يجب أن تُوضع في الحسبان.

يقترح الباحثون أيضًا أن مصممي هذه “البوتات” يجب أن يسعوا للحصول على موافقة الجهات المعنية بالبيانات قبل أن يخرجوا بمنتجهم النهائي، وأن ينظروا للاحتياجات الدقيقة لأولئك الذين يتطلعون إلى “إحياء” أحبائهم. وهذا من شأنه أن يضمن إعطاء الأولوية لكرامة المتوفى.

علاوة على ذلك، تسلط الدراسة الضوء على أهمية القيود العمرية “لروبوتات الموتى” و”الشفافية الهادفة” لضمان فهم المستخدمين أنهم يتفاعلون مع الذكاء الاصطناعي. ويمكن تحقيق ذلك من خلال تحذيرات مشابهة لتلك المستخدمة للمحتوى الذي قد يسبب نوبات.

إن عواقب التغافل عن هذه الاعتبارات عند تطوير خدمات الذكاء الاصطناعي التي نتحدث عنها مقلقة. ومن دون دراسة متأنية، قد تتسبب هذه الخدمات في إحداث ضائقة هائلة لأولئك الذين يعانون بالفعل من الحزن. تحذر الدكتورة كاتارزينا نوفاكزيك باسينسكا من أن “التكنولوجيا موجودة بالفعل، ونحن بحاجة إلى البدء في التفكير الآن حول كيفية تخفيف المخاطر الاجتماعية والنفسية للخلود الرقمي.”

سعدنا بزيارتك، جميع مقالات الموقع هي ملك موقع الأكاديمية بوست ولا يحق لأي شخص أو جهة استخدامها دون الإشارة إليها كمصدر. تعمل إدارة الموقع على إدارة عملية كتابة المحتوى العلمي دون تدخل مباشر في أسلوب الكاتب، مما يحمل الكاتب المسؤولية عن مدى دقة وسلامة ما يكتب.


ذكاء اصطناعي

User Avatar


عدد مقالات الكاتب : 100
الملف الشخصي للكاتب :

مقالات مقترحة

التعليقات :

اترك تعليق