Ad

إن جودة أنظمة الذكاء الاصطناعي تكون جيدة بقدر جودة البيانات التي يتم تدريبها عليها، وعندما تكون تلك البيانات متحيزة، يمكن أن تكون العواقب وخيمة. اتخذ باحثون من جامعة ولاية أوريغون وشركة Adobe خطوة حاسمة نحو معالجة هذه المشكلة من خلال تطوير (FairDeDup)، وهي تقنية تدريب جديدة تجعل أنظمة الذكاء الاصطناعي أقل تحيزًا اجتماعيًا.

ما يجعل (FairDeDup) ثوريًا هو قدرته على إزالة المعلومات الزائدة عن الحاجة من مجموعات البيانات، وتقليل تكاليف الحوسبة وتخفيف الآثار السلبية للتحيز. وهذا يعني أنه يمكن تدريب أنظمة الذكاء الاصطناعي لتقديم نتائج أكثر تنوعًا وتمثيلا، بدلا من إدامة الصور النمطية الضارة. تم تقديم (FairDeDup) الأسبوع الماضي في سياتل في مؤتمر (IEEE/CVF) حول رؤية الكمبيوتر والتعرف على الأنماط.

المخاطر الخفية لأنظمة الذكاء الاصطناعي المتحيزة

لديك عالم تعمل فيه أنظمة الذكاء الاصطناعي، المصممة لمساعدة القدرات البشرية وزيادتها، على إدامة وتضخيم التحيزات الاجتماعية الضارة. إنها حقيقة نحن قريبون منها بشكل مثير للقلق، ومن الضروري أن نفهم المخاطر التي تنطوي عليها. يمكن أن يكون لأنظمة الذكاء الاصطناعي المتحيزة عواقب بعيدة المدى، مما يؤثر على الفئات السكانية الضعيفة ويديم التمييز. على سبيل المثال، قد يواجه نظام التعرف على الوجه المتحيز للقوقازيين صعوبة في تحديد الأشخاص ذوي البشرة الملونة بدقة، مما يؤدي إلى اعتقالات كاذبة وإجهاض العدالة. وبالمثل، قد يؤدي المحتوى الناتج عن الذكاء الاصطناعي إلى تعزيز الصور النمطية الضارة، مما يزيد من تهميش المجموعات الممثلة تمثيلًا ناقصًا بالفعل. تكمن الطبيعة الخبيثة لهذه التحيزات في دقتها، ففي كثير من الأحيان، تكون متأصلة في نسيج عمليات صنع القرار في الذكاء الاصطناعي، مما يجعل من الصعب اكتشافها وتصحيحها. نظرًا لأننا نعتمد بشكل متزايد على الذكاء الاصطناعي لاتخاذ قرارات حاسمة، فمن الضروري الاعتراف بهذه المخاطر الخفية ومعالجتها. علاوة على ذلك، يجب علينا أن ندرك أن أنظمة الذكاء الاصطناعي المتحيزة ليست مجرد انعكاس للمشاكل المجتمعية، ولكنها يمكن أن تؤدي أيضًا إلى تفاقمها، مما يخلق حلقة من التمييز ذاتية التعزيز.

تقنية تجعل الذكاء الاصطناعي أقل تحيزًا

تاريخ موجز لمشكلة التحيز الاجتماعي في الذكاء الاصطناعي

تعود مسألة التحيز الاجتماعي في أنظمة الذكاء الاصطناعي إلى الأيام الأولى لتطوير الذكاء الاصطناعي. عندما بدأت نماذج الذكاء الاصطناعي في الاعتماد على كميات هائلة من البيانات التي تم جمعها من الإنترنت، فقد ورثت التحيزات الموجودة في تلك البيانات.
تاريخيًا، ركز باحثو الذكاء الاصطناعي على تحسين دقة وكفاءة نماذجهم، وغالبًا ما تجاهلوا احتمالية النتائج المتحيزة. ومع ذلك، مع انتشار أنظمة الذكاء الاصطناعي في حياتنا اليومية، أصبح من الصعب تجاهل عواقب هذه التحيزات.
نما الوعي بمشكلة التحيز الاجتماعي في الذكاء الاصطناعي عندما بدأ الباحثون في التحقيق في الأسباب الكامنة وراءها. واكتشفوا أن التحيزات يمكن أن تتسلل إلى مراحل مختلفة من عملية تطوير الذكاء الاصطناعي، بدءًا من جمع البيانات وحتى نشر النماذج.
استجاب مجتمع الذكاء الاصطناعي لهذه المخاوف من خلال تطوير تقنيات للتخفيف من التحيزات. أحد هذه الأساليب هو إزالة التحيز، والذي يتضمن تحديد وإزالة نقاط البيانات المتحيزة من مجموعة بيانات التدريب. نهج آخر هو التنظيم، الذي يضيف عقوبات إلى وظيفة خسارة النموذج لتثبيط السلوك المتحيز.
ومع ذلك، فإن هذه الأساليب لها حدودها. لا تزال مجموعات البيانات المتحيزة تحتوي على تحيزات غير معروفة، وقد لا تكون تقنيات التنظيم فعالة دائمًا في سيناريوهات العالم الحقيقي.

تقنية تجعل الذكاء الاصطناعي أقل تحيزًا

لديك حديقة تريد أن تنمو فيها مجموعة متنوعة من الزهور. تبدأ بمجموعة كبيرة من البذور، ولكن بعضها مكرر، وعندما تزرعها، ينتهي بك الأمر إلى زيادة نمو عدد قليل من الأنواع السائدة. وهذا مشابه لما يحدث عندما يتم تدريب أنظمة الذكاء الاصطناعي على مجموعات البيانات التي تم جمعها من الإنترنت، حيث يمكن أن تصبح متحيزة تجاه مجموعات أو أفكار معينة. (FairDeDup) هي تقنية جديدة تساعد على “تهذيب” مجموعات البيانات هذه، وإزالة المعلومات الزائدة عن الحاجة والسماح بنمو نظام ذكاء اصطناعي أكثر تنوعًا وتوازنًا.
يعني التقليم (pruning)، في هذا السياق، اختيار مجموعة فرعية من البيانات التي تمثل مجموعة البيانات بأكملها. إنه مثل اختيار عدد قليل من البذور من الدفعة التي ستمنحك حديقة أكثر تنوعًا وحيوية. وعندما يتم التقليم بطريقة تراعي المحتوى، فإنه يسمح باتخاذ قرارات مستنيرة بشأن أجزاء البيانات التي ستبقى وأيها ستذهب. يأخذ (FairDeDup) هذه العملية خطوة أخرى إلى الأمام من خلال دمج أبعاد التنوع التي يمكن التحكم فيها والتي يحددها الإنسان للتخفيف من التحيزات.
فكر في الأمر على هذا النحو: عندما تقوم بتدريب نظام الذكاء الاصطناعي، فأنت تريده أن يتعلم من مجموعة متنوعة من الأمثلة. إذا كانت صور الرجال البيض تهيمن على مجموعة البيانات الخاصة بك، على سبيل المثال، فقد يتعلم الذكاء الاصطناعي ربط وظائف أو أدوار معينة بهذه الفئة الديموغرافية. من خلال تقليم مجموعة البيانات لإزالة المعلومات الزائدة عن الحاجة ودمج وجهات نظر متنوعة، يساعد (FairDeDup) أنظمة الذكاء الاصطناعي على التعلم بشكل أكثر دقة وإنصافًا. وينتج عن ذلك أنظمة ذكاء اصطناعي ليست فعالة من حيث التكلفة ودقيقة فحسب، ولكنها أيضًا أكثر عدلاً من الناحية الاجتماعية.

تأثير (FairDeDup) على تطوير الذكاء الاصطناعي

إن الآثار المترتبة على (FairDeDup) بعيدة المدى، مع إمكانية التأثير على جوانب مختلفة من حياتنا. على سبيل المثال، في مجال الرعاية الصحية، يمكن لأنظمة الذكاء الاصطناعي المدربة باستخدام (FairDeDup) أن تساعد في تقليل التشخيص المتحيز وخيارات العلاج، مما يضمن حصول الجميع على رعاية عادلة ومتساوية. وفي التعليم، يمكن لمنصات التعلم التي تعمل بالذكاء الاصطناعي أن توفر مواد تعليمية أكثر شمولا وتنوعا، وتعزيز فهم أكثر شمولا للثقافات ووجهات النظر المختلفة.
علاوة على ذلك، يمكن أن يكون لهذه التقنية أيضًا تأثير كبير على سوق العمل، حيث تعمل أنظمة التوظيف المعتمدة على الذكاء الاصطناعي غالبًا على إدامة التحيزات، والتمييز عن غير قصد ضد مجموعات معينة. ومن خلال التخفيف من هذه التحيزات، يمكن لـ(FairDeDup) أن يساعد في خلق ساحة لعب أكثر تكافؤًا، حيث يتمتع الجميع بفرصة متساوية للنجاح.
يكمن جمال (FairDeDup) في طبيعته المرنة والقابلة للتكيف، مما يسمح للمستخدمين بتحديد ما هو عادل في سياقهم المحدد. وهذا يعني أنه يمكن تصميم أنظمة الذكاء الاصطناعي لتلبية الاحتياجات الفريدة للمجتمعات والثقافات والصناعات المختلفة. ومع استمرار الذكاء الاصطناعي في لعب دور بارز بشكل متزايد في حياتنا اليومية، سيكون تأثيره محسوسًا في مختلف القطاعات، بدءًا من الترفيه وحتى التمويل وما هو أبعد من ذلك.

Researchers develop new training technique that aims to make AI systems less socially biased / science daily

سعدنا بزيارتك، جميع مقالات الموقع هي ملك موقع الأكاديمية بوست ولا يحق لأي شخص أو جهة استخدامها دون الإشارة إليها كمصدر. تعمل إدارة الموقع على إدارة عملية كتابة المحتوى العلمي دون تدخل مباشر في أسلوب الكاتب، مما يحمل الكاتب المسؤولية عن مدى دقة وسلامة ما يكتب.


ذكاء اصطناعي

User Avatar


عدد مقالات الكاتب : 343
الملف الشخصي للكاتب :

مقالات مقترحة

التعليقات :

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *