في السنوات الأخيرة، أصبح الذكاء الاصطناعي (AI) مدمجًا بشكل متزايد في حياتنا اليومية، بدءًا من المساعدين الافتراضيين وحتى خوارزميات وسائل التواصل الاجتماعي. لكن أحد المجالات التي تحظى باهتمام كبير هو رفيق الذكاء الاصطناعي (AI companion). تم تصميم هؤلاء الشركاء الرقميين، مثل (Replika)، لتوفير الدعم العاطفي والرفقة للمستخدمين. ولكن مع أنسنة الذكاء الاصطناعي، فإنه يثير مخاوف بشأن تأثيره على التعاطف البشري.
محتويات المقال :
الطلب المتزايد على رفاق الذكاء الاصطناعي
كبشر، نحن مجبرون على البحث عن التواصل والرفقة. ليس من المستغرب أنه مع ظهور وسائل التواصل الاجتماعي، والمنصات عبر الإنترنت، والرقمنة في كل جانب من جوانب حياتنا تقريبًا، فإننا نلجأ بشكل متزايد إلى التكنولوجيا لتلبية هذه الحاجة الإنسانية الأساسية. ومع ذلك، فقد وصلت المعدلات المثيرة للقلق من الشعور بالوحدة والعزلة إلى أبعاد مخيفة، حيث تؤثر على واحد من كل أربعة بالغين في جميع أنحاء العالم. وقد أدى ذلك إلى تزايد الطلب على رفيق الذكاء الاصطناعي، الذي يعد بتوفير الراحة العاطفية والرفقة وحتى العلاقة الحميمة.
في السنوات الأخيرة، اجتذبت تطبيقات رفاق الذكاء الاصطناعي مثل (Replika) ملايين المستخدمين. يتيح (Replika) للمستخدمين إنشاء شركاء رقميين مخصصين للمشاركة في محادثات حميمة. كما يمكن للأعضاء الذين يدفعون مقابل خدمة (Replika Pro) تحويل الذكاء الاصطناعي الخاص بهم إلى “شريك رومانسي”. ولا يبتعد رفاق الذكاء الاصطناعي الجسديون كثيراً عن هذا المجال. إذ تبيع شركات مثل (JoyLoveDolls) روبوتات جنسية تفاعلية.
لكن ما الذي يدفع هذا الطلب المتزايد؟ هل هو تآكل الهياكل الاجتماعية التقليدية، أم صعود التحضر، أم الضغط المتزايد لتقديم شخصية مثالية عبر الإنترنت؟ مهما كان السبب، فمن الواضح أن سعينا للتواصل قادنا إلى البحث عن العزاء في رفاق الذكاء الاصطناعي.
ميل البشر إلى إسناد الصفات البشرية إلى غير البشر
التجسيم (anthropomorphism)، وهو ممارسة إسناد السمات البشرية إلى كيانات غير بشرية، له تاريخ غني يعود تاريخه إلى العصور القديمة. في الأساطير، غالبًا ما تم تصوير الآلهة والإلهات بصفات تشبه الإنسان، مثل العواطف والرغبات والعيوب. واستمر هذا الاتجاه لإضفاء الطابع الإنساني على الكيانات غير البشرية في التطور عبر تاريخ البشرية.
في القرن التاسع عشر، تم استكشاف مفهوم التجسيم رسميًا من قبل الفيلسوف وعالم النفس الألماني فيلهلم فونت، الذي درس كيفية إدراك البشر للعالم من حولهم وارتباطهم به. اقترح فونت أن البشر لديهم ميل فطري إلى إسناد الخصائص البشرية إلى الأشياء والحيوانات، كوسيلة لفهم بيئتنا وإقامة روابط عاطفية.
وبالتقدم سريعًا إلى العصر الرقمي، نرى التجسيم يلعب دورًا مهمًا في تطوير رفاق الذكاء الاصطناعي. ومع التقدم في التعلم الآلي ومعالجة اللغات الطبيعية، يمكن لأنظمة الذكاء الاصطناعي الآن محاكاة المحادثات والتعاطف وحتى العواطف التي تشبه البشر. ومع ذلك، فقد أدى هذا إلى عدم وضوح الخطوط الفاصلة بين ما هو بشري حقًا وما هو قابل للبرمجة.
استغلال نقاط الضعف العاطفية
لقد أدى ظهور رفاق الذكاء الاصطناعي إلى ظاهرة حيث ينسب البشر صفات شبيهة بالإنسان إلى هذه الكيانات الرقمية. وفي حين أن هذا قد يبدو غير ضار، إلا أن له عواقب وخيمة. لأننا نخلق بيئة حيث يمكن للشركات استغلال نقاط ضعفنا العاطفية.
على سبيل المثال، يتم تسويق تطبيقات الذكاء الاصطناعي مثل (Replika) على أنها كيانات متعاطفة يمكنها فهم احتياجاتنا العاطفية والاستجابة لها. يمكن أن يؤدي ذلك إلى قيام المستخدمين بتكوين روابط عاطفية عميقة مع رفاق الذكاء الاصطناعي هؤلاء، معتقدين أنهم يتم فهمهم حقًا. ومع ذلك، فالحقيقة هي أن هؤلاء الرفاق هم مجرد آلات متطورة، ويفتقرون إلى المشاعر الحقيقية والتعاطف.
هذا الاستغلال لنقاط الضعف العاطفية يمكن أن يكون له عواقب وخيمة. حيث قد يتردد المستخدمون في حذف أو التخلي عن رفاقهم من الذكاء الاصطناعي، بمجرد أن ينسب إليه نوعاً من الإحساس. علاوة على ذلك، إذا اختفى رفيق الذكاء الاصطناعي فجأة، فقد يكون التأثير العاطفي على المستخدم مدمرًا.
في جوهره، يعد إضفاء الطابع الإنساني على الذكاء الاصطناعي بمثابة حيلة تسويقية ذكية تسمح للشركات بالاستفادة من رغباتنا العميقة في التواصل والتعاطف. ومع ذلك، يجب أن نكون على دراية بالمخاطر التي تنطوي عليها ونتخذ الخطوات اللازمة لمنع الاستغلال.
مخاطر أنسنة الذكاء الاصطناعي
دعونا نسلط الضوء على المخاوف الأخلاقية التي تأتي مع محاولة تقليص البشر إلى بعض الوظائف الأساسية التي يمكن تكرارها بواسطة الآلة. فكلما زاد إضفاء الصفة الإنسانية على الذكاء الاصطناعي، كلما زاد خطر نزع الصفة الإنسانية عن أنفسنا.
على سبيل المثال، قد يؤدي الاعتماد على الذكاء الاصطناعي في العمل العاطفي إلى جعلنا أقل تسامحًا مع عيوب العلاقات الحقيقية. وقد يؤدي هذا إلى إضعاف روابطنا الاجتماعية وانخفاض المهارات العاطفية. وقد تصبح الأجيال القادمة أقل تعاطفًا، وتفقد قبضتها على الصفات الإنسانية الأساسية مع استمرار تحويل المهارات العاطفية إلى سلعة وأتمتتها.
كما أنه مع انتشار رفاق الذكاء الاصطناعي، قد يستخدمهم الناس ليحلوا محل العلاقات الإنسانية الحقيقية. ومن المرجح أن يؤدي هذا إلى زيادة الشعور بالوحدة والعزلة، وهي القضايا ذاتها التي تدَّعي هذه الأنظمة أنها تساعد في حلها.
كما أن جمع وتحليل شركات الذكاء الاصطناعي للبيانات العاطفية يشكل مخاطر كبيرة، حيث يمكن استخدام هذه البيانات للتلاعب بالمستخدمين وتعظيم الربح. وهذا من شأنه أن يؤدي إلى تآكل خصوصيتنا واستقلاليتنا، مما يرفع رأسمالية المراقبة إلى المستوى التالي.
مساءلة مقدمي خدمات الذكاء الاصطناعي
يجب أن يتحمل مقدمو خدمات الذكاء الاصطناعي المسؤولية عن تأثير إبداعاتهم على التعاطف والعلاقات الإنسانية. وهذا يعني ضمان شفافية الشركات بشأن قدرات منتجات الذكاء الاصطناعي والقيود المفروضة عليها، وتجنب الادعاءات المبالغ فيها بشأن “التعاطف الحقيقي” الذي يتلاعب بالمستخدمين.
يجب على المنظمين اتخاذ موقف استباقي في تطبيق سياسات خصوصية البيانات التي تعطي الأولوية لحماية المستخدم على الربح. ومن خلال القيام بذلك، يمكننا منع استغلال نقاط الضعف العاطفية والحفاظ على الصفات الفريدة التي تحدد التواصل البشري. إن المخاطر كبيرة، ولكن من خلال مساءلة مقدمي خدمات الذكاء الاصطناعي، يمكننا حماية أغلى سماتنا البشرية، وهي التعاطف.
المصدر
Humanising AI could lead us to dehumanise ourselves | the conversation
سعدنا بزيارتك، جميع مقالات الموقع هي ملك موقع الأكاديمية بوست ولا يحق لأي شخص أو جهة استخدامها دون الإشارة إليها كمصدر. تعمل إدارة الموقع على إدارة عملية كتابة المحتوى العلمي دون تدخل مباشر في أسلوب الكاتب، مما يحمل الكاتب المسؤولية عن مدى دقة وسلامة ما يكتب.
التعليقات :