من المتوقع أن تشهد البشرية في السنوات القليلة المقبلة تطورات كبيرة في مجال الذكاء الاصطناعي. توقع مليارديرات مثل إيلون ماسك والرئيس التنفيذي لشركة “OpenAI” سام ألتمان أن الذكاء الاصطناعي سوف يتفوق على الذكاء البشري في المستقبل القريب. ومع ذلك، فقد توصل معظم الباحثين في مجال الذكاء الاصطناعي إلى إدراك أن مجرد بناء أنظمة ذكاء اصطناعي أكثر قوة لن يؤدي إلى الذكاء الفائق. وبدلا من ذلك، فإن المخاطر الحقيقية المرتبطة بالذكاء الاصطناعي لا تكمن في قدراته، بل في سوء استخدام الإنسان للذكاء الاصطناعي.
لقد تدفقت تقارير عن إساءة استخدام الذكاء الاصطناعي. وتُظهر هذه الحوادث إمكانية إساءة استخدام الإنسان للذكاء الاصطناعي، الأمر الذي قد يؤدي إلى عواقب وخيمة. في عام 2025، يمكننا أن نتوقع تصاعد المخاطر المرتبطة بالذكاء الاصطناعي، ليس بسبب التكنولوجيا نفسها، ولكن بسبب الخطأ البشري والإساءة المتعمدة.
محتويات المقال :
الجانب المظلم من الذكاء الاصطناعي
أصبح الذكاء الاصطناعي جزءًا لا يتجزأ من حياتنا اليومية. ومع ذلك، تحت سطح الفوائد الواعدة للذكاء الاصطناعي تكمن حقيقة أكثر قتامة تتمثل في إساءة الاستخدام غير المقصودة والمتعمدة. في حين أن الذكاء الاصطناعي لديه القدرة على إحداث ثورة في العديد من الصناعات، فإن قوته غير المقيدة يمكن أن تؤدي إلى عواقب مدمرة.
إحدى أهم المخاوف هي قدرة الذكاء الاصطناعي على إنشاء محتوى مزيف، بما في ذلك التزييف العميق، والذي يمكن استخدامه لخداع الناس والتلاعب بهم. وتثير السرعة المثيرة للقلق التي تنتشر بها هذه التزييفات العميقة تساؤلات حول مساءلة مطوري الذكاء الاصطناعي ومسؤولية الأفراد الذين يستخدمون هذه الأدوات.
علاوة على ذلك، فإن ميل الذكاء الاصطناعي إلى إدامة التحيزات والقوالب النمطية يمكن أن يؤدي إلى التمييز وعدم المساواة الاجتماعية. ويمكن أن يكون لهذه التحيزات عواقب طويلة الأمد، حيث تحرم الناس من حقوقهم وفرصهم.
لا يقتصر الجانب المظلم للذكاء الاصطناعي على سوء استخدامه المتعمد؛ حيث يمكن أن يكون سوء الاستخدام غير المقصود ضارًا بنفس القدر. كما قد تعتمد الشركات بشكل مفرط على أدوات الذكاء الاصطناعي، مما يؤدي إلى استنتاجات وقرارات غير دقيقة.
أمثلة وحالات لسوء استخدام الإنسان للذكاء الاصطناعي
سوء استخدام غير مقصود في القانون
لقد أدى الاعتماد المتزايد على أدوات الذكاء الاصطناعي إلى اتجاه مقلق من سوء الاستخدام غير المقصود، وخاصة في المهنة القانونية. منذ ظهور برامج الدردشة المتقدمة مثل “ChatGPT”، واجه العديد من المحامين عقوبات لدمج أخطاء الذكاء الاصطناعي في ملفات المحكمة الخاصة بهم.
على سبيل المثال، في كولومبيا البريطانية، عوقب محامي لإدراجه قضايا ملفقة تم إنشاؤها بواسطة الذكاء الاصطناعي في وثيقة قانونية. وبالمثل، في نيويورك، تم تغريم شخصين لاستشهادهما بمراجع كاذبة أنتجها الذكاء الاصطناعي. وفي حالة أكثر شدة، تم إيقاف محامي من كولورادو لمدة عام بعد استخدام قضايا المحكمة التي تم إنشاؤها بواسطة الذكاء الاصطناعي ونسب الأخطاء زوراً إلى متدرب قانوني.
التزييف العميق والإضرار بالناس
قد تكون إساءة الاستخدام مقصودة. ففي يناير 2024، غمرت صور مزيفة جنسية صريحة لتايلور سويفت منصات التواصل الاجتماعي. وقد تم إنشاء هذه الصور باستخدام أداة الذكاء الاصطناعي “Designer” من مايكروسوفت. وفي حين كانت الشركة لديها حواجز وقائية لتجنب إنشاء صور لأشخاص حقيقيين، فإن كتابة اسم سويفت بشكل خاطئ كان كافياً لتجاوزها. وقد قامت مايكروسوفت منذ ذلك الحين بإصلاح هذا الخطأ.
وتنتشر مقاطع التزييف العميق غير المتفق عليها على نطاق واسع، ويرجع ذلك جزئيًا إلى توفر أدوات مفتوحة المصدر لإنشاء صور مزيفة بشكل عام. وتسعى التشريعات الجارية في جميع أنحاء العالم إلى مكافحة التزييف العميق على أمل الحد من الضرر. ويبقى أن نرى ما إذا كانت فعالة.
مكاسب الكذاب
“مكاسب الكذاب” (liar’s dividend) هو مصطلح تمت صياغته لوصف الظاهرة حيث ينكر الأفراد في مناصب السلطة الأدلة على سوء سلوكهم من خلال الادعاء بأنها مزيفة، وغالبًا ما يستخدمون المحتوى الناتج عن الذكاء الاصطناعي ككبش فداء. ويمكن أن يكون لهذا عواقب بعيدة المدى، لأنه يسمح للجناة بالإفلات من المساءلة وتقويض الثقة في المؤسسات.
في عام 2023، قال إيلون ماسك، رئيس شركة تسلا، إن مقطع فيديو له في عام 2016 كان من الممكن أن يكون مزيفًا ردًا على مزاعم بأنه بالغ في فعالية وسلامة القيادة الآلية في سيارات تسلا مما أدى إلى وقوع حادث. وبالمثل، ادعى سياسي هندي أن المقاطع الصوتية التي يعترف فيها بالفساد في حزبه السياسي تم التلاعب بها.
إن مكاسب الكذاب لها أيضًا آثار على نظام العدالة. ومع التطور المتزايد للمحتوى الناتج عن الذكاء الاصطناعي، أصبح من الأسهل على الأفراد إنشاء أدلة مزيفة مقنعة. وهذا يمكن أن يؤدي إلى إدانات خاطئة، وعدالة مشوهة، وزيادة تآكل الثقة في المؤسسات.
منتجات ذكاء اصطناعي مشكوك فيها
في غضون ذلك، تستغل الشركات الارتباك العام لبيع منتجات مشكوك فيها بشكل أساسي من خلال تصنيفها على أنها “ذكاء اصطناعي”. وقد تسوء الأمور بشكل كبير عندما تُستخدم مثل هذه الأدوات لتصنيف الأشخاص واتخاذ قرارات مهمة بشأنهم.
على سبيل المثال، تزعم شركة التوظيف Retorio أن الذكاء الاصطناعي الخاص بها يتنبأ بملاءمة المرشحين للوظيفة بناءً على مقابلات الفيديو، ومن الأمثلة البارزة على ذلك شركة التوظيف Retorio، التي تؤكد أن الذكاء الاصطناعي الخاص بها يمكنه التنبؤ بدقة بملاءمة الوظيفة بناءً على مقابلات الفيديو.
ولكن، كشفت الأبحاث أن النظام يمكن التلاعب به بسهولة من خلال تكتيكات بسيطة مثل ارتداء النظارات أو تغيير الخلفية، مما يشير إلى أنه يعتمد على إشارات سطحية بدلاً من الجدارة الحقيقية.
اتخاذ قرارات تؤثر على حياة الناس
يتم استخدام الذكاء الاصطناعي بشكل متزايد في قطاعات مختلفة، بما في ذلك الرعاية الصحية والتعليم والتمويل والعدالة الجنائية والتأمين. وفي حين يقدم الذكاء الاصطناعي فوائد محتملة، فإنه يحمل أيضًا مخاطر، وخاصة عند استخدامه لاتخاذ قرارات تؤثر على حياة الناس.
ومن الأمثلة البارزة على ذلك استخدام هيئة الضرائب الهولندية لخوارزمية الذكاء الاصطناعي لتحديد الاحتيال المحتمل في رعاية الأطفال. اتهم هذا النظام عن طريق الخطأ الآلاف من الآباء، مما أدى إلى أعباء مالية كبيرة وضيق عاطفي. وأدت الفضيحة إلى استقالة مجلس الوزراء الهولندي بأكمله.
محاربة سوء استخدام الإنسان للذكاء الاصطناعي
أثناء تطلعنا إلى مستقبل الذكاء الاصطناعي في عام 2025، فمن الضروري أن نعترف بالمخاطر الهائلة التي تنشأ عن سوء الاستخدام البشري. توضح الأمثلة المذكورة سابقًا كيف يمكن استغلال الذكاء الاصطناعي من قبل الأفراد والشركات لإيذاء الآخرين. علاوة على ذلك، فإن استغلال الارتباك العام حول قدرات الذكاء الاصطناعي يمكن أن يؤدي إلى حرمان الفئات السكانية الضعيفة من الحقوق والفرص.
في عام 2025، من المهم أن نعطي الأولوية للشفافية والمساءلة والرقابة في تطوير الذكاء الاصطناعي. وهذا يعني الانخراط في مناقشات مفتوحة وصادقة حول القيود وإساءة الاستخدام المحتملة للذكاء الاصطناعي، فضلا عن وضع مبادئ توجيهية وأنظمة واضحة لمنع الاستغلال. ومن خلال الاعتراف بمخاطر إساءة استخدام البشر، يمكننا أن نعمل على خلق مستقبل أكثر أمانا وإنصافا للجميع.
المصدر
Human Misuse Will Make Artificial Intelligence More Dangerous | wired
سعدنا بزيارتك، جميع مقالات الموقع هي ملك موقع الأكاديمية بوست ولا يحق لأي شخص أو جهة استخدامها دون الإشارة إليها كمصدر. تعمل إدارة الموقع على إدارة عملية كتابة المحتوى العلمي دون تدخل مباشر في أسلوب الكاتب، مما يحمل الكاتب المسؤولية عن مدى دقة وسلامة ما يكتب.
التعليقات :