تقنية تدريب جديدة تجعل الذكاء الاصطناعي أقل تحيزًا اجتماعيًا

إن جودة أنظمة الذكاء الاصطناعي تكون جيدة بقدر جودة البيانات التي يتم تدريبها عليها، وعندما تكون تلك البيانات متحيزة، يمكن أن تكون العواقب وخيمة. اتخذ باحثون من جامعة ولاية أوريغون وشركة Adobe خطوة حاسمة نحو معالجة هذه المشكلة من خلال تطوير (FairDeDup)، وهي تقنية تدريب جديدة تجعل أنظمة الذكاء الاصطناعي أقل تحيزًا اجتماعيًا.

ما يجعل (FairDeDup) ثوريًا هو قدرته على إزالة المعلومات الزائدة عن الحاجة من مجموعات البيانات، وتقليل تكاليف الحوسبة وتخفيف الآثار السلبية للتحيز. وهذا يعني أنه يمكن تدريب أنظمة الذكاء الاصطناعي لتقديم نتائج أكثر تنوعًا وتمثيلا، بدلا من إدامة الصور النمطية الضارة. تم تقديم (FairDeDup) الأسبوع الماضي في سياتل في مؤتمر (IEEE/CVF) حول رؤية الكمبيوتر والتعرف على الأنماط.

المخاطر الخفية لأنظمة الذكاء الاصطناعي المتحيزة

لديك عالم تعمل فيه أنظمة الذكاء الاصطناعي، المصممة لمساعدة القدرات البشرية وزيادتها، على إدامة وتضخيم التحيزات الاجتماعية الضارة. إنها حقيقة نحن قريبون منها بشكل مثير للقلق، ومن الضروري أن نفهم المخاطر التي تنطوي عليها. يمكن أن يكون لأنظمة الذكاء الاصطناعي المتحيزة عواقب بعيدة المدى، مما يؤثر على الفئات السكانية الضعيفة ويديم التمييز. على سبيل المثال، قد يواجه نظام التعرف على الوجه المتحيز للقوقازيين صعوبة في تحديد الأشخاص ذوي البشرة الملونة بدقة، مما يؤدي إلى اعتقالات كاذبة وإجهاض العدالة. وبالمثل، قد يؤدي المحتوى الناتج عن الذكاء الاصطناعي إلى تعزيز الصور النمطية الضارة، مما يزيد من تهميش المجموعات الممثلة تمثيلًا ناقصًا بالفعل. تكمن الطبيعة الخبيثة لهذه التحيزات في دقتها، ففي كثير من الأحيان، تكون متأصلة في نسيج عمليات صنع القرار في الذكاء الاصطناعي، مما يجعل من الصعب اكتشافها وتصحيحها. نظرًا لأننا نعتمد بشكل متزايد على الذكاء الاصطناعي لاتخاذ قرارات حاسمة، فمن الضروري الاعتراف بهذه المخاطر الخفية ومعالجتها. علاوة على ذلك، يجب علينا أن ندرك أن أنظمة الذكاء الاصطناعي المتحيزة ليست مجرد انعكاس للمشاكل المجتمعية، ولكنها يمكن أن تؤدي أيضًا إلى تفاقمها، مما يخلق حلقة من التمييز ذاتية التعزيز.

تاريخ موجز لمشكلة التحيز الاجتماعي في الذكاء الاصطناعي

تعود مسألة التحيز الاجتماعي في أنظمة الذكاء الاصطناعي إلى الأيام الأولى لتطوير الذكاء الاصطناعي. عندما بدأت نماذج الذكاء الاصطناعي في الاعتماد على كميات هائلة من البيانات التي تم جمعها من الإنترنت، فقد ورثت التحيزات الموجودة في تلك البيانات.
تاريخيًا، ركز باحثو الذكاء الاصطناعي على تحسين دقة وكفاءة نماذجهم، وغالبًا ما تجاهلوا احتمالية النتائج المتحيزة. ومع ذلك، مع انتشار أنظمة الذكاء الاصطناعي في حياتنا اليومية، أصبح من الصعب تجاهل عواقب هذه التحيزات.
نما الوعي بمشكلة التحيز الاجتماعي في الذكاء الاصطناعي عندما بدأ الباحثون في التحقيق في الأسباب الكامنة وراءها. واكتشفوا أن التحيزات يمكن أن تتسلل إلى مراحل مختلفة من عملية تطوير الذكاء الاصطناعي، بدءًا من جمع البيانات وحتى نشر النماذج.
استجاب مجتمع الذكاء الاصطناعي لهذه المخاوف من خلال تطوير تقنيات للتخفيف من التحيزات. أحد هذه الأساليب هو إزالة التحيز، والذي يتضمن تحديد وإزالة نقاط البيانات المتحيزة من مجموعة بيانات التدريب. نهج آخر هو التنظيم، الذي يضيف عقوبات إلى وظيفة خسارة النموذج لتثبيط السلوك المتحيز.
ومع ذلك، فإن هذه الأساليب لها حدودها. لا تزال مجموعات البيانات المتحيزة تحتوي على تحيزات غير معروفة، وقد لا تكون تقنيات التنظيم فعالة دائمًا في سيناريوهات العالم الحقيقي.

Related Post

تقنية تجعل الذكاء الاصطناعي أقل تحيزًا

لديك حديقة تريد أن تنمو فيها مجموعة متنوعة من الزهور. تبدأ بمجموعة كبيرة من البذور، ولكن بعضها مكرر، وعندما تزرعها، ينتهي بك الأمر إلى زيادة نمو عدد قليل من الأنواع السائدة. وهذا مشابه لما يحدث عندما يتم تدريب أنظمة الذكاء الاصطناعي على مجموعات البيانات التي تم جمعها من الإنترنت، حيث يمكن أن تصبح متحيزة تجاه مجموعات أو أفكار معينة. (FairDeDup) هي تقنية جديدة تساعد على “تهذيب” مجموعات البيانات هذه، وإزالة المعلومات الزائدة عن الحاجة والسماح بنمو نظام ذكاء اصطناعي أكثر تنوعًا وتوازنًا.
يعني التقليم (pruning)، في هذا السياق، اختيار مجموعة فرعية من البيانات التي تمثل مجموعة البيانات بأكملها. إنه مثل اختيار عدد قليل من البذور من الدفعة التي ستمنحك حديقة أكثر تنوعًا وحيوية. وعندما يتم التقليم بطريقة تراعي المحتوى، فإنه يسمح باتخاذ قرارات مستنيرة بشأن أجزاء البيانات التي ستبقى وأيها ستذهب. يأخذ (FairDeDup) هذه العملية خطوة أخرى إلى الأمام من خلال دمج أبعاد التنوع التي يمكن التحكم فيها والتي يحددها الإنسان للتخفيف من التحيزات.
فكر في الأمر على هذا النحو: عندما تقوم بتدريب نظام الذكاء الاصطناعي، فأنت تريده أن يتعلم من مجموعة متنوعة من الأمثلة. إذا كانت صور الرجال البيض تهيمن على مجموعة البيانات الخاصة بك، على سبيل المثال، فقد يتعلم الذكاء الاصطناعي ربط وظائف أو أدوار معينة بهذه الفئة الديموغرافية. من خلال تقليم مجموعة البيانات لإزالة المعلومات الزائدة عن الحاجة ودمج وجهات نظر متنوعة، يساعد (FairDeDup) أنظمة الذكاء الاصطناعي على التعلم بشكل أكثر دقة وإنصافًا. وينتج عن ذلك أنظمة ذكاء اصطناعي ليست فعالة من حيث التكلفة ودقيقة فحسب، ولكنها أيضًا أكثر عدلاً من الناحية الاجتماعية.

تأثير (FairDeDup) على تطوير الذكاء الاصطناعي

إن الآثار المترتبة على (FairDeDup) بعيدة المدى، مع إمكانية التأثير على جوانب مختلفة من حياتنا. على سبيل المثال، في مجال الرعاية الصحية، يمكن لأنظمة الذكاء الاصطناعي المدربة باستخدام (FairDeDup) أن تساعد في تقليل التشخيص المتحيز وخيارات العلاج، مما يضمن حصول الجميع على رعاية عادلة ومتساوية. وفي التعليم، يمكن لمنصات التعلم التي تعمل بالذكاء الاصطناعي أن توفر مواد تعليمية أكثر شمولا وتنوعا، وتعزيز فهم أكثر شمولا للثقافات ووجهات النظر المختلفة.
علاوة على ذلك، يمكن أن يكون لهذه التقنية أيضًا تأثير كبير على سوق العمل، حيث تعمل أنظمة التوظيف المعتمدة على الذكاء الاصطناعي غالبًا على إدامة التحيزات، والتمييز عن غير قصد ضد مجموعات معينة. ومن خلال التخفيف من هذه التحيزات، يمكن لـ(FairDeDup) أن يساعد في خلق ساحة لعب أكثر تكافؤًا، حيث يتمتع الجميع بفرصة متساوية للنجاح.
يكمن جمال (FairDeDup) في طبيعته المرنة والقابلة للتكيف، مما يسمح للمستخدمين بتحديد ما هو عادل في سياقهم المحدد. وهذا يعني أنه يمكن تصميم أنظمة الذكاء الاصطناعي لتلبية الاحتياجات الفريدة للمجتمعات والثقافات والصناعات المختلفة. ومع استمرار الذكاء الاصطناعي في لعب دور بارز بشكل متزايد في حياتنا اليومية، سيكون تأثيره محسوسًا في مختلف القطاعات، بدءًا من الترفيه وحتى التمويل وما هو أبعد من ذلك.

Researchers develop new training technique that aims to make AI systems less socially biased / science daily

أخبار علمية

Share
Published by
أخبار علمية

Recent Posts

كيف توقعت كلاريفت الفائزين بجوائز نوبل 2024؟

ما هي قائمة استشهادات كلاريفت السنوية؟ قائمة استشهادات كلاريفت (Clarivate Citation Laureates) هي قائمة من…

7 ساعات ago

هل يفوز الذكاء الاصطناعي بجائزة نوبل يوما ما؟

يعمل الذكاء الاصطناعي على إحداث تحول في العديد من الصناعات، ويستكشف العلماء إمكاناته لإحداث ثورة…

يوم واحد ago

ما هي المشاكل الوجودية التي يعاني منها جميع البشر؟

لقد تصارع الفلاسفة لفترة طويلة مع مفهوم المعاناة، ولكن في الفلسفة الوجودية (Existentialism) تتلقى المعاناة…

3 أيام ago

دراسة تقترح دفن الخشب لمكافحة تغير المناخ!

قامت دراسة حديثة نشرت في مجلة (Science) في 27 سبتمبر 2024، باقتراح دفن الخشب لمكافحة…

3 أيام ago

الفائزات الأخيرات بنوبل في الفيزياء يشاركن نصائحهن

لقد شهدت الفيزياء تحولا كبيرا في السنوات الأخيرة مع الاعتراف بالمساهمات البارزة للمرأة. ومن بين…

3 أيام ago

تطوير ملابس مستوحاة من الحبار تتكيف مع درجة حرارة الجسد!

هل تريد أن تتكيف ملابسك مع درجة حرارة جسمك في الوقت الفعلي، وأن ترتدي نفس…

3 أيام ago