في دراسة مهمة نُشرت في الاجتماع السنوي الثاني والستين لجمعية اللغويات الحاسوبية (ACL 2024)، أكد باحثون من جامعة باث وجامعة دارمشتات التقنية في ألمانيا فكرة أن الذكاء الاصطناعي لا يشكل أي تهديد وجودي للبشرية. وخلافًا للمخاوف واسعة النطاق، تكشف الدراسة أن نماذج اللغات الكبيرة يمكن التحكم فيها بالكامل من خلال تعليمات صريحة. وقضى فريق البحث، بقيادة البروفيسورة إيرينا جوريفيتش، آلاف الساعات في تجربة نماذج اللغات الكبيرة لاختبار حدودها وقدراتها، وخلص إلى أن زيادة حجم النموذج لا يؤدي إلى تطوير قدرات خطرة.
محتويات المقال :
لطالما كان مفهوم الذكاء الاصطناعي محاطًا بهالة من الغموض والخوف. فقد ساهمت أفلام الخيال العلمي والبرامج التلفزيونية في تكريس فكرة الذكاء الاصطناعي باعتباره كيانًا مارقًا عازمًا على تدمير البشرية. ولكن ما هو أصل هذا الخوف؟
أحد الاحتمالات هو أن التقدم السريع الذي أحرزه الذكاء الاصطناعي في السنوات الأخيرة أدى إلى أزمة وجودية لدى البشر. لقد رأينا أن الذكاء الاصطناعي يتفوق على القدرات البشرية في مجالات مثل الشطرنج واللغويات والتعرف البصري، مما يؤدي إلى مخاوف بشأن استبدال وظائف البشر وفقدان السيطرة. ويمكن أيضًا أن يُعزى الخوف من الذكاء الاصطناعي إلى النقص الملحوظ في الشفافية في عمليات صنع القرار في الذكاء الاصطناعي، مما يجعله يبدو وكأنه لغز يصعب فهمه، بل ويصعب الوثوق به.
تاريخيًا، يمكن إرجاع الخوف من الذكاء الاصطناعي إلى مفهوم “التفرد التقني” (Technological singularity)، الذي صاغه عالم الرياضيات وعالم الكمبيوتر فيرنور فينج في الثمانينيات. يشير التفرد التقني إلى النقطة الزمنية الافتراضية التي يتفوق فيها الذكاء الاصطناعي على الذكاء البشري، مما يؤدي إلى نمو هائل في التقدم التكنولوجي الذي يمكن أن يكون كارثيًا على البشرية. وقد تم نشر هذه الفكرة من قبل شخصيات بارزة مثل إيلون ماسك وستيفن هوكينج، مما زاد من الخوف من الذكاء الاصطناعي.
نماذج اللغات الكبيرة ((LLMs) Large language model) هي برامج كمبيوتر مصممة لمعالجة وإنشاء لغة تشبه الإنسان. ويتم تدريبهم على مجموعات كبيرة من البيانات النصية، والتي تمكنهم من تعلم الأنماط والعلاقات والفروق الدقيقة في اللغة. تسمح عملية التدريب هذه للنماذج بأداء مهام مثل ترجمة اللغة وتلخيص النصوص وحتى الكتابة الإبداعية.
أحد الجوانب الرئيسية لهذه النماذج هي قدرتهم على التعلم من التعليمات الواضحة، والمعروفة أيضًا باسم “التعلم في السياق” ((ICL) in-context learning). وهذا يعني أنه عند تزويدهم ببعض الأمثلة، يمكنهم إكمال المهام التي لم يروها من قبل. على سبيل المثال، إذا تم تدريب نماذج اللغات الكبيرة على مجموعة بيانات من المواقف الاجتماعية، فيمكنه الإجابة على أسئلة حول تلك المواقف دون أن تتم برمجته بشكل صريح للقيام بذلك.
ومع ذلك، تفتقر نماذج اللغات الكبيرة إلى “القدرات الناشئة” (emergent abilities)، والتي تشير إلى القدرة على تكوين رؤى أو استنتاجات خاصة بهم دون تعليمات صريحة. ويعني هذا القيد أن نماذج اللغات الكبيرة لن يطوروا فجأة قدرات خطرة أو يصبحوا خارجين عن السيطرة. وبدلًا من ذلك، سوف يستمرون في الاعتماد على التعليمات التي صممها الإنسان لإظهار الأداء الجيد. حيث تقتصر قدراتهم على ما تم توجيههم إليه صراحةً، وذلك لأنهم يفتقرون إلى القدرة على التفكير المعقد، وهو أمر ضروري لاتخاذ القرار المستقل.
وأظهرت تجارب فريق البحث أن الجمع بين التعلم في السياق والذاكرة والكفاءة اللغوية يمكن أن يفسر كلاً من قدرات وحدود هذه النماذج. حيث يعد هذا الاكتشاف أمرًا بالغ الأهمية في تبديد الأسطورة القائلة بأن نماذج اللغات الكبيرة قنابل موقوتة، تنتظر إطلاق العنان لقدراتهم الناشئة وإحداث الفوضى. في الواقع، إنها قابلة للتحكم ويمكن التنبؤ بها وآمنة، طالما تم تزويدها بإرشادات مصممة بعناية.
لنقل أنك تحاول جعل طفل صغير يكمل مهمة ما. لن تطلب منه ببساطة أن “يكون مبدعًا” وتتوقع منه أن يكتشف ذلك بطريقة سحرية. بدلاً من ذلك، يمكنك تقسيم المهمة إلى خطوات أصغر وأبسط، مع توفير تعليمات واضحة حول ما يجب القيام به. هذا هو بالضبط طريقة عمل نماذج اللغات الكبيرة. ومن خلال تقديم تعليمات مصممة بعناية، يمكن للبشر توجيه سلوك الذكاء الاصطناعي، مما يضمن قيام النماذج بأداء المهام على النحو المنشود تمامًا.
وهذا يعني أنه إذا قمت بتزويد نماذج اللغات الكبيرة بتعليمات جيدة الصياغة، فيمكنه إكمال المهام التي لم يواجهها من قبل، ولكن فقط ضمن الحدود التي حددتها المطالب. هذا النقص في القدرات الاستدلالية الناشئة يجعل نماذج اللغات الكبيرة آمنة وقابلة للتنبؤ بها.
الآثار المترتبة على ذلك كبيرة. ومن خلال فهم أهمية التعليمات، يمكن للمطورين تصميم أنظمة ذكاء اصطناعي أكثر فعالية تعمل جنبًا إلى جنب مع البشر، وليس بشكل مستقل. وكما لاحظ الدكتور هاريش تايار مادابوشي، فمن المرجح أن يستفيد المستخدمون من تحديد ما يحتاجون إليه وتقديم أمثلة حيثما أمكن لجميع المهام باستثناء أبسط المهام. بمعنى آخر، تكمن القوة في قدرتنا على صياغة التعليمات الصحيحة، وتوجيه سلوك الذكاء الاصطناعي، وضمان بقاء التكنولوجيا أداة، وليست تهديدًا.
يعمل هذا الاكتشاف على تحويل التركيز من التهديدات الوجودية المتصورة إلى القضايا الحقيقية التي تتطلب اهتمامنا. على سبيل المثال، يعد سوء الاستخدام المحتمل للذكاء الاصطناعي، مثل خلق أخبار مزيفة والاحتيال، مصدر قلق ملح يجب علينا معالجته. ومن خلال توجيه جهودنا نحو هذه المشاكل الواقعية، يمكننا ضمان تطوير الذكاء الاصطناعي واستخدامه بشكل مسؤول.
وفي السنوات القادمة، يمكننا أن نتوقع من نماذج اللغات الكبيرة توليد لغة أكثر تطورًا واتباع التعليمات الواضحة بسهولة أكبر. حيث سيؤدي هذا إلى فتح إمكانيات جديدة لتطبيقات مثل ترجمة اللغة وتلخيص النصوص وروبوتات الدردشة. ومع تقدم التكنولوجيا، يمكننا أن نتوقع استخدامات أكثر ابتكارًا لهذه النماذج والتي من شأنها أن تحول الصناعات وتحسن الحياة.
AI poses no existential threat to humanity, new study finds | science daily
Are Emergent Abilities in Large Language Models just In-Context Learning? | aclanthology
عندما يتعلق الأمر بحماية بشرتنا من التأثيرات القاسية لأشعة الشمس، فإن استخدام واقي الشمس أمر…
اكتشف فريق من علماء الآثار 13 مومياء قديمة. وتتميز هذه المومياوات بألسنة وأظافر ذهبية،وتم العثور…
ركز العلماء على الخرسانة الرومانية القديمة كمصدر غير متوقع للإلهام في سعيهم لإنشاء منازل صالحة…
من المعروف أن الجاذبية الصغرى تغير العضلات والعظام وجهاز المناعة والإدراك، ولكن لا يُعرف سوى…
الويب 3.0، الذي يشار إليه غالبًا باسم "الويب اللامركزي"، هو الإصدار التالي للإنترنت. وهو يقوم…
لطالما فتنت المستعرات العظمى علماء الفلك بانفجاراتها القوية التي تضيء الكون. ولكن ما الذي يسبب…