Ad

تتصدر نماذج اللغة الكبيرة عناوين الأخبار بفضل قدراتها المثيرة للإعجاب. ولكن دراسة جديدة كشفت أن هذه النماذج قد لا تكون ذكية كما تبدو. حيث وجد الباحثون أن نوعًا شائعًا من نماذج الذكاء الاصطناعي التوليدي يمكن أن يوفر اتجاهات قيادة دقيقة في مدينة نيويورك، ولكن إذا تم إغلاق بعض الشوارع وإضافة تحويلات، ينخفض الأداء بشكل كبير مما يكشف عن خريطته الداخلية المعيبة للمدينة. وهذا يثير آثارًا خطيرة فيما يتعلق بنشر نماذج الذكاء الاصطناعي التوليدية في تطبيقات العالم الحقيقي. وفي هذا المقال، سنرى كيف أن الذكاء الاصطناعي لا يفهم العالم وما يعنيه هذا بالنسبة لمستقبل الذكاء الاصطناعي.

وهم الذكاء

قد يكون مفهوم “الذكاء” مضللاً عند تطبيقه على نماذج اللغة الكبيرة (LLMs). حيث غالبًا ما نساوي بين الذكاء والقدرة على أداء مهام معقدة، ولكن ماذا لو كانت هذه المهام مجرد نتيجة لأنماط إحصائية وارتباطات تم تعلمها من كميات هائلة من البيانات؟ في الواقع، قد لا تكون نماذج اللغة الكبيرة ذكية كما نعتقد. حيث يكونون ممتازين في التعرف على الأنماط وتكرارها، دون فهم السياق أو المعنى الأساسي.

إن وهم الذكاء هذا له آثار كبيرة على تطوير ونشر نماذج الذكاء الاصطناعي. وإذا افترضنا أن هذه النماذج تفهم العالم حقا، فقد نميل إلى الاعتماد عليها في اتخاذ القرارات الحاسمة أو حل المشاكل المعقدة. ولكن، إذا كانوا يقلدون السلوك البشري فقط دون فهم المبادئ الأساسية، فإننا نخاطر بإنشاء أنظمة هشة أو متحيزة أو حتى خطيرة.

الاتمتة المحدودة القطعية

ركز الباحثون على نوع من نماذج الذكاء الاصطناعي التوليدي المعروف باسم المحول (Transformers)، والذي يشكل العمود الفقري لنماذج اللغة الكبيرةمثل “GPT-4”. حيث يتم تدريب المحولات على كمية هائلة من البيانات القائمة على اللغة للتنبؤ بالرمز التالي في تسلسل، مثل الكلمة التالية في الجملة.

لفهم ما إذا كانت نماذج اللغة الكبيرة قد شكلت نموذجًا عالميًا دقيقًا، قام الباحثون بتطوير مقياسين جديدين، تمييز التسلسل (sequence distinction) وضغط التسلسل (sequence compression). يمكن لهذه المقاييس اختبار قدرة النموذج على التعرف على الاختلافات والتشابهات.

كما ركز الباحثون تقييماتهم على فئة من المشاكل تسمى الاتمتة المحدودة القطعية (DFAs). وهي مشكلة تتعلق بتسلسل من الحالات، مثل التقاطعات التي يجب على المرء أن يعبرها للوصول إلى وجهة، وطريقة ملموسة لوصف القواعد التي يجب على المرء اتباعها على طول الطريق.

وقد اختار الباحثين مشكلتين لصياغتهما كاتمتة محدودة قطعية، وهما التنقل في شوارع مدينة نيويورك ولعب اللعبة اللوحية أوتيللو (Othello).

مقاييس جديدة لتقييم نماذج الذكاء الاصطناعي

يقوم مقياس تمييز التسلسل بتقييم قدرة النموذج على التمييز بين حالتين مختلفتين، مع التعرف على مدى اختلافهما. يعد هذا أمرًا بالغ الأهمية لأن المحولات تولد مخرجات بناءً على تسلسل نقاط البيانات. في لعبة أوتيللو، على سبيل المثال، يجب أن يكون النموذج قادرًا على التمييز بين موضعين مختلفين على اللوحة.

من ناحية أخرى، يقوم مقياس ضغط التسلسل بتقييم قدرة النموذج على ضغط الحالات المتطابقة، مع إدراك أن لديهم نفس التسلسل من الخطوات التالية المحتملة. وهذا مهم لأنه يكشف ما إذا كان النموذج لديه فهم متماسك لقواعد اللعبة.

وباستخدام هذه المقاييس، وجد الباحثون أن المحولات، على الرغم من أدائها الرائع في توليد الحركات في لعبة أوتيللو، إلا أنها لم تشكل نماذج عالمية متماسكة. حيث فشلت النماذج في التعرف على القواعد الأساسية للعبة، وبدلاً من ذلك اعتمدت على التعرف على الأنماط وحفظها. وهذا يثير مخاوف بشأن القيود المفروضة على نماذج اللغة الكبيرة والحاجة إلى أساليب تقييم أكثر صرامة.

الذكاء الاصطناعي لا يفهم العالم

ماذا يعني هذا بالنسبة للذكاء الاصطناعي في العالم الحقيقي؟

تخيل سيارات ذاتية القيادة يمكنها التنقل عبر الطرق المألوفة بسهولة، ولكنها تضيع فجأة عندما تواجه عمليات إغلاق غير متوقعة للطرق أو أعمال البناء. أو أنظمة الرعاية الصحية المدعومة بالذكاء الاصطناعي والتي يمكنها تشخيص الأمراض بدقة عالية، ولكنها تفشل في التكيف عند مواجهة حالات نادرة أو غير عادية.

يمكن أن تكون عواقب الاعتماد على نماذج الذكاء الاصطناعي المعيبة كارثية. ومن المهم أن نقوم بتطوير أنظمة ذكاء اصطناعي أكثر قوة وموثوقية يمكنها التعميم بما يتجاوز بيانات التدريب الخاصة بها. حيث تعتبر النتائج التي توصل إليها الباحثون بمثابة دعوة للاستيقاظ، وتحثنا على إعادة النظر في نهجنا في بناء ونشر نماذج الذكاء الاصطناعي.

في العالم الحقيقي، ستواجه نماذج الذكاء الاصطناعي سيناريوهات غير متوقعة، ومن الضروري أن تتمكن من التكيف والتعلم من هذه التجارب. ومن خلال تطوير نماذج عالمية أكثر دقة، يمكننا إنشاء أنظمة ذكاء اصطناعي ليست فقط مثيرة للإعجاب ولكنها أيضًا جديرة بالثقة ويمكن الاعتماد عليها.

المصادر

Despite its impressive output, generative AI doesn’t have a coherent understanding of the world | eurekalert

Evaluating the World Model Implicit in a Generative Model | arxiv

اضغط هنا لتقييم التقرير
[Average: 0]

سعدنا بزيارتك، جميع مقالات الموقع هي ملك موقع الأكاديمية بوست ولا يحق لأي شخص أو جهة استخدامها دون الإشارة إليها كمصدر. تعمل إدارة الموقع على إدارة عملية كتابة المحتوى العلمي دون تدخل مباشر في أسلوب الكاتب، مما يحمل الكاتب المسؤولية عن مدى دقة وسلامة ما يكتب.


ذكاء اصطناعي

User Avatar


عدد مقالات الكاتب : 445
الملف الشخصي للكاتب :

التالي

مقالات مقترحة

التعليقات :

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *