تقنية

دليلك لفهم خوارزمية أدم ADAM التحسينية الأكثر استخدامًا في التعلم العميق

هذه المقالة هي الجزء 12 من 12 في سلسلة أشهر الخوارزميات التحسينية المستوحاة من الطبيعية

<div id&equals;"wtr-content" &NewLine;&Tab; &Tab;data-bg&equals;"&num;FFFFFF" &NewLine;&Tab; &Tab;data-fg&equals;"&num;dd9933" &NewLine;&Tab; &Tab;data-width&equals;"6" &NewLine;&Tab; &Tab;data-mute&equals;"1" &NewLine;&Tab; &Tab;data-fgopacity&equals;"1&period;00" &NewLine;&Tab; &Tab;data-mutedopacity&equals;"1&period;00" &NewLine;&Tab; &Tab;data-placement&equals;"bottom" &NewLine;&Tab; &Tab;data-placement-offset&equals;"0" &NewLine;&Tab; &Tab;data-content-offset&equals;"0" &NewLine;&Tab; &Tab;data-placement-touch&equals;"bottom" &NewLine;&Tab;&Tab; data-placement-offset-touch&equals;"0" &NewLine;&Tab; &Tab;data-transparent&equals;"1" &NewLine;&Tab; &Tab;data-shadow&equals;"0" &NewLine;&Tab; &Tab;data-touch&equals;"1" &NewLine;&Tab; &Tab;data-non-touch&equals;"0" &NewLine;&Tab; &Tab;data-comments&equals;"0" &NewLine;&Tab; &Tab;data-commentsbg&equals;"&num;ffcece" &NewLine;&Tab; &Tab;data-location&equals;"page" &NewLine;&Tab; &Tab;data-mutedfg&equals;"&num;dd9933" &NewLine;&Tab; &Tab;data-endfg&equals;"transparent" &NewLine;&Tab; &Tab;data-rtl&equals;"1" &NewLine;&Tab; &Tab;>&NewLine;<p>اختيارك <a href&equals;"https&colon;&sol;&sol;elakademiapost&period;com&sol;&percnt;D9&percnt;83&percnt;D9&percnt;8A&percnt;D9&percnt;81-&percnt;D9&percnt;8A&percnt;D8&percnt;AA&percnt;D9&percnt;85-&percnt;D8&percnt;A7&percnt;D8&percnt;AE&percnt;D8&percnt;AA&percnt;D9&percnt;8A&percnt;D8&percnt;A7&percnt;D8&percnt;B1-&percnt;D8&percnt;A7&percnt;D9&percnt;84&percnt;D8&percnt;AE&percnt;D9&percnt;88&percnt;D8&percnt;A7&percnt;D8&percnt;B1&percnt;D8&percnt;B2&percnt;D9&percnt;85&percnt;D9&percnt;8A&percnt;D8&percnt;A7&percnt;D8&percnt;AA-&percnt;D8&percnt;A7&percnt;D9&percnt;84&percnt;D8&percnt;AA&percnt;D8&percnt;AD&percnt;D8&percnt;B3&percnt;D9&percnt;8A&percnt;D9&percnt;86&percnt;D9&percnt;8A&percnt;D8&percnt;A9&sol;" target&equals;"&lowbar;blank" rel&equals;"noreferrer noopener">للخوارزمية التحسينية<&sol;a> المناسبة لتدريب نموذجك للتعلم العميق، يعني مباشرة اختيارك جودة ومدة التنفيذ&period; فاختيارك هذا له الكلمة الفصل في قدرتك على الحصول على نتائج في دقائق، أو ساعات، أو حتى أيام&period; أو ربما عدم حصولك على نتيجة خلال فترة حياتك&period; ومن بين هذه الخوارزميات، نجد أن خوارزمية أدم ADAM هي أحد أكثر الخوارزميات التحسينية استخدامًا في مجال التعلم العميق&period; وتحديدًا في تدريب الشبكات العصبية الاصطناعية&period; وقد أشرنا سابقا أن <a href&equals;"https&colon;&sol;&sol;elakademiapost&period;com&sol;&percnt;D8&percnt;AA&percnt;D8&percnt;B9&percnt;D8&percnt;B1&percnt;D9&percnt;81-&percnt;D8&percnt;B9&percnt;D9&percnt;84&percnt;D9&percnt;89-&percnt;D8&percnt;AE&percnt;D9&percnt;88&percnt;D8&percnt;A7&percnt;D8&percnt;B1&percnt;D8&percnt;B2&percnt;D9&percnt;85&percnt;D9&percnt;8A&percnt;D8&percnt;A9-&percnt;D8&percnt;A7&percnt;D9&percnt;84&percnt;D9&percnt;86&percnt;D8&percnt;B2&percnt;D9&percnt;88&percnt;D9&percnt;84-&percnt;D8&percnt;A7&percnt;D9&percnt;84&percnt;D8&percnt;AA&percnt;D8&percnt;AF&percnt;D8&percnt;B1&percnt;D8&percnt;AC&percnt;D9&percnt;8A-&percnt;D8&percnt;A7&percnt;D9&percnt;84&percnt;D8&percnt;A3&percnt;D8&percnt;B4&sol;" target&equals;"&lowbar;blank" rel&equals;"noreferrer noopener">خوارزمية النزول التدرجي ومتحوراتها<&sol;a> هم الأكثر استخدامًا في هذا المجال، لكن ما لم نذكره هو أن خوارزمية أدم ADAM هي متحور من متحورات خوارزمية النزول التدرجي&period; وبالتحديد خوارزمية النزول التدرجي التصادفية Stochastic Gradient descent&period;<br><br>وقد استخدمت خوارزمية النزول التدرجي التصادفية SGD في السنوات الأخيرة بشكل مكثف وكبير في فروع عديدة من الذكاء الاصطناعي، لعل أبرزها هما الرؤية الحاسوبية computer vision، ومعالجة اللغة الطبيعية Natural Language Processing&period;<&sol;p>&NewLine;&NewLine;&NewLine;&NewLine;<h2 class&equals;"wp-block-heading">ما هي خوارزمية أدم ADAM؟<&sol;h2>&NewLine;&NewLine;&NewLine;&NewLine;<h3 class&equals;"wp-block-heading">أصول خوارزمية أدم ADAM<&sol;h3>&NewLine;&NewLine;&NewLine;&NewLine;<p>ابتُكرت خوارزمية أدم بهدف استبدال خوارزمية النزول التدرجي التصادفية، وذلك، تحديداً في عملية تدريب نماذج التعلم العميق deep learning&period; وقد تم اقتراح هذه الخوارزمية من طرف دايديريك كينغما Diederik Kingma رائدة المجال <a href&equals;"https&colon;&sol;&sol;en&period;wikipedia&period;org&sol;wiki&sol;OpenAI" target&equals;"&lowbar;blank" rel&equals;"noreferrer noopener">OpenAI <&sol;a>و جيمي با Jimmy Ba من جامعة تورونتو سنة 2015 في ورقة بحثية في مؤتمر <a href&equals;"https&colon;&sol;&sol;iclr&period;cc&sol;About" target&equals;"&lowbar;blank" rel&equals;"noreferrer noopener">ICLR <&sol;a>باسم &&num;8220&semi;أدم&colon; طريقة للتحسين التصادفي&&num;8221&semi;، Adam&colon; a method for stochastic optimization&period; تم تسمية هذه الخوارزمية أدم اختصارًا ل&colon; <strong>ADA<&sol;strong>ptive <strong>M<&sol;strong>oment estimation &lt&semi;&equals;&gt&semi; <strong>ADAM<&sol;strong>&period;<&sol;p>&NewLine;&NewLine;&NewLine;&NewLine;<h3 class&equals;"wp-block-heading">مميزات الخوارزمية<&sol;h3>&NewLine;&NewLine;&NewLine;&NewLine;<p>في تقديمهم لخوارزمية أدم، وضح الباحثان مميزات هذه الخوارزمية في التعامل مع المشاكل غير المحدبة، أي دالتها الهدف غير محدبة non-convex objective function&period; من بينها&colon;<&sol;p>&NewLine;&NewLine;&NewLine;&NewLine;<ul class&equals;"wp-block-list"><li>سهولة تنفيذ الخوارزمية&period;<&sol;li><li>كفؤة حوسبيًا computationally efficient&period;<&sol;li><li>استهلاك ضعيف للذاكرة&period;<&sol;li><li>غير حساسة <a href&equals;"https&colon;&sol;&sol;stats&period;stackexchange&period;com&sol;questions&sol;360322&sol;what-does-diagonal-rescaling-of-the-gradients-mean-in-adam-paper" target&equals;"&lowbar;blank" rel&equals;"noreferrer noopener">لإعادة القياس القطري للتدرجات<&sol;a>&period; أي أنها غير حساسة لضرب متجهة التدرج في مصفوفة قطرية موجبة العوامل&period; لكونها تستعمل المشتقات الجزئية، بدلًا من التدرج الذي تستعمله خوارزمية النزول التدرجي التصادفية&period;<&sol;li><li>منسابة عند تعدد المتغيرات وكبر عينات البيانات&period;<&sol;li><li>جيدة مع المشاكل غير الثابتة، أي فضاء البحث متغير بدلالة الزمن&period;<&sol;li><li>فعالة عند وجود تشويش يؤثر على قيم التدرج&period;<&sol;li><li>المتغيرات الأساسية في التحكم في التنفيذ، أي المعلمات الفائقة hyperparameters، بديهية ولا تحتاج ضبط معقد&period; وضبط هذه الأخيرة parameter tuning يعد مشكلةً تحسينيةً هو الأخر، ونستعمل خوارزميات تحسينية لضبطها عند الحاجة&period;<&sol;li><&sol;ul>&NewLine;&NewLine;&NewLine;&NewLine;<h2 class&equals;"wp-block-heading">آلية عمل أدم<&sol;h2>&NewLine;&NewLine;&NewLine;&NewLine;<p>تختلف أدم عن خوارزمية النزول التدرجي التصادفية&period; لكونها تأخذ معدل تعلم بارامتري، أي معدل تعلم يتغير بدلالة متغيرات معينة&period; معدل التعلم هذا هو حجم الخطوة عند كل دورة تكرار تقليص للدالة الهدف&period; راجع&lpar;ي&rpar; المقال السابق لتوضيح أكبر&colon; <a href&equals;"https&colon;&sol;&sol;elakademiapost&period;com&sol;&percnt;D8&percnt;AA&percnt;D8&percnt;B9&percnt;D8&percnt;B1&percnt;D9&percnt;81-&percnt;D8&percnt;B9&percnt;D9&percnt;84&percnt;D9&percnt;89-&percnt;D8&percnt;AE&percnt;D9&percnt;88&percnt;D8&percnt;A7&percnt;D8&percnt;B1&percnt;D8&percnt;B2&percnt;D9&percnt;85&percnt;D9&percnt;8A&percnt;D8&percnt;A9-&percnt;D8&percnt;A7&percnt;D9&percnt;84&percnt;D9&percnt;86&percnt;D8&percnt;B2&percnt;D9&percnt;88&percnt;D9&percnt;84-&percnt;D8&percnt;A7&percnt;D9&percnt;84&percnt;D8&percnt;AA&percnt;D8&percnt;AF&percnt;D8&percnt;B1&percnt;D8&percnt;AC&percnt;D9&percnt;8A-&percnt;D8&percnt;A7&percnt;D9&percnt;84&percnt;D8&percnt;A3&percnt;D8&percnt;B4&sol;" target&equals;"&lowbar;blank" rel&equals;"noreferrer noopener">تعرف على خوارزمية النزول التدرجي الأشهر في الخوارزميات التحسينية<&sol;a>&period;<br><br>يتم تحديد معدل التعلم، أو حجم الخطوة هذا، انطلاقا من تقديرات العزم الأول والثاني للتدرج&period; فيصف الباحثان هذه الخوارزمية بكونها دمجًا بين إثنتين من سابقتيها، واللتان بدورهما من متحورات خوارزمية النزول التدرجي التصادفية وهما&colon;<&sol;p>&NewLine;&NewLine;&NewLine;&NewLine;<h3 class&equals;"wp-block-heading">خوارزمية التدرج المتأقلم<&sol;h3>&NewLine;&NewLine;&NewLine;&NewLine;<p><strong>Ada<&sol;strong>ptive <strong>Grad<&sol;strong>ient Algorithm، أو <strong>AdaGrad<&sol;strong>&colon; والتي هي الأخرى تستعمل حجم خطوة متغير لتعزيز أدائها في حل المشاكل ذات التدرج الضئيل&period; ما يعني في التعلم العميق أن الشبكة لا تستقبل إشارات كافية لضبط أوزانها&period; ومن أمثلة هذه المشاكل نجد&colon; معالجة اللغة الطبيعية NLP، و الرؤية الحاسوبية، وغيرها&period;<&sol;p>&NewLine;&NewLine;&NewLine;&NewLine;<h3 class&equals;"wp-block-heading">خوارزمية انتشار جذر متوسط المربع<&sol;h3>&NewLine;&NewLine;&NewLine;&NewLine;<p><strong>R<&sol;strong>oot <strong>M<&sol;strong>ean <strong>S<&sol;strong>quare <strong>Propa<&sol;strong>gation، أو <strong>RMSPropa<&sol;strong>&colon; التي أيضًا تستعمل خطوة متغيرة&period; ذلك التغير، بدلالة متوسط مُضمحل للتدرجات الجزئية&period; ما يعني أن أداء هذه الخوارزمية جيد عند مواجهتها لمشاكل ذات فضاء بحث متغير زمنيًا، أو عند وجود تشويش يغير من قيم التدرج&period;<&sol;p>&NewLine;&NewLine;&NewLine;&NewLine;<h3 class&equals;"wp-block-heading">كيف تجمع أدم ADAM فوائد هاتين الخوارزميتين؟<&sol;h3>&NewLine;&NewLine;&NewLine;&NewLine;<p>فبدلاً من تكييف معدلات التعلم لمتغيرات الدالة الهدف بناءً على متوسط <a href&equals;"https&colon;&sol;&sol;ar&period;wikipedia&period;org&sol;wiki&sol;&percnt;D8&percnt;B9&percnt;D8&percnt;B2&percnt;D9&percnt;85&lowbar;&lpar;&percnt;D8&percnt;B1&percnt;D9&percnt;8A&percnt;D8&percnt;A7&percnt;D8&percnt;B6&percnt;D9&percnt;8A&percnt;D8&percnt;A7&percnt;D8&percnt;AA&rpar;" target&equals;"&lowbar;blank" rel&equals;"noreferrer noopener">&ZeroWidthSpace;&ZeroWidthSpace;العزم<&sol;a> الأول average first moment كما هو الحال في RMSProp، تستخدم آدم أيضا متوسط &ZeroWidthSpace;&ZeroWidthSpace;العزوم الثانية للتدرجات Uncentered variance&period;<br><br>وباستعمال العزم فإننا نتمكن من التحكم في مقدار النزول التدرجي بطريقة تكون فيها التذبذبات عند أدنى قيمها عند اقترابنا للحل الأمثل، أي تقلص حجم الخطوات كلما أصبحنا أقرب للحل الأمثل&period; بينما يكون حجم الخطوة معتبرًا عند اقترابنا لحل محلي&period;<&sol;p>&NewLine;&NewLine;&NewLine;&NewLine;<h2 class&equals;"wp-block-heading">رياضيات<&sol;h2>&NewLine;&NewLine;&NewLine;&NewLine;<h3 class&equals;"wp-block-heading">العزم<&sol;h3>&NewLine;&NewLine;&NewLine;&NewLine;<p>يستعمل العزم لتسريع النزول التدرجي&period;<&sol;p>&NewLine;&NewLine;&NewLine;&NewLine;<figure class&equals;"wp-block-image size-full"><img src&equals;"https&colon;&sol;&sol;elakademiapost&period;com&sol;wp-content&sol;uploads&sol;2022&sol;08&sol;Screenshot-2022-08-01-202453&period;png" alt&equals;"" class&equals;"wp-image-53405"&sol;><figcaption>تعبر &lpar;t&rpar;W عن قيمة الأوزان في لحظة t&period; يمثل ألفا درجة التعلم، أي حجم الخطوة الحالي&period; كما تمثل &lpar;t&rpar;m مجموع التدرجات عند اللحظة t&period;<&sol;figcaption><&sol;figure>&NewLine;&NewLine;&NewLine;&NewLine;<figure class&equals;"wp-block-image size-full"><img src&equals;"https&colon;&sol;&sol;elakademiapost&period;com&sol;wp-content&sol;uploads&sol;2022&sol;08&sol;Screenshot-2022-08-01-202526&period;png" alt&equals;"" class&equals;"wp-image-53406"&sol;><figcaption>تمثل &lpar;t&rpar;m مجموع التدرجات عند اللحظة t أي الدورة الحالية، بينما &lpar;t-1&rpar;m تعبر عن هذا المجموع في الدورة السابقة&period; dL هي مشتقة الدالة الهدف، &lpar;t&rpar;dW مشتقة الأوزان عند اللحظة t&period; بيتا هي المتغير المتحرك &lpar;مفهوم إحصائي&rpar;&period;<&sol;figcaption><&sol;figure>&NewLine;&NewLine;&NewLine;&NewLine;<h3 class&equals;"wp-block-heading">انتشار جدر متوسط المربع RMSProp<&sol;h3>&NewLine;&NewLine;&NewLine;&NewLine;<figure class&equals;"wp-block-image size-full"><img src&equals;"https&colon;&sol;&sol;elakademiapost&period;com&sol;wp-content&sol;uploads&sol;2022&sol;08&sol;Screenshot-2022-08-01-202858&period;png" alt&equals;"" class&equals;"wp-image-53407"&sol;><figcaption>تمثل &epsi; ثابتة صغيرة لتجنب القسمة على صفر&period;<&sol;figcaption><&sol;figure>&NewLine;&NewLine;&NewLine;&NewLine;<figure class&equals;"wp-block-image size-full"><img src&equals;"https&colon;&sol;&sol;elakademiapost&period;com&sol;wp-content&sol;uploads&sol;2022&sol;08&sol;Screenshot-2022-08-01-202921&period;png" alt&equals;"" class&equals;"wp-image-53408"&sol;><&sol;figure>&NewLine;&NewLine;&NewLine;&NewLine;<h3 class&equals;"wp-block-heading">أدم<&sol;h3>&NewLine;&NewLine;&NewLine;&NewLine;<p>انطلاقا من معادلات الطريقتين أعلاه، نتحصل على&colon;<&sol;p>&NewLine;&NewLine;&NewLine;&NewLine;<figure class&equals;"wp-block-image size-full"><img src&equals;"https&colon;&sol;&sol;elakademiapost&period;com&sol;wp-content&sol;uploads&sol;2022&sol;08&sol;Screenshot-2022-08-01-203313&period;png" alt&equals;"" class&equals;"wp-image-53409"&sol;><figcaption>متجهة العزم الأولى &lpar;t&rpar;m&period; متجهة العزم الثانية &lpar;t&rpar;v&period;<&sol;figcaption><&sol;figure>&NewLine;&NewLine;&NewLine;&NewLine;<p>نظرًا لأن كل من mt و vt قد تم تصفيرهما بدئيًا، وكذلك لكون β1 و β2 تأخد قيم تقارب 1، لوحظ تجريبيًا أنهما يكتسبان تحيزًا نحو الصفر&period; لإصلاح هذا نقوم بحساب قيم تصحيحية&period; ويتم حساب هذه القيم أيضًا للتحكم في الأوزان عند قرب وصولنا للحل الأمثل وذلك لمنع التذبذبات عالية التردد&period; والصيغ المستخدمة هي&colon;<&sol;p>&NewLine;&NewLine;&NewLine;&NewLine;<figure class&equals;"wp-block-image size-full"><img src&equals;"https&colon;&sol;&sol;elakademiapost&period;com&sol;wp-content&sol;uploads&sol;2022&sol;08&sol;Screenshot-2022-08-01-203418&period;png" alt&equals;"" class&equals;"wp-image-53410"&sol;><&sol;figure>&NewLine;&NewLine;&NewLine;&NewLine;<p>ما يمكننا من استبدال mt و vt بقيم مصححة&colon;<&sol;p>&NewLine;&NewLine;&NewLine;&NewLine;<figure class&equals;"wp-block-image size-full"><img src&equals;"https&colon;&sol;&sol;elakademiapost&period;com&sol;wp-content&sol;uploads&sol;2022&sol;08&sol;Screenshot-2022-08-01-203552&period;png" alt&equals;"" class&equals;"wp-image-53411"&sol;><figcaption>نجد &lpar;t&rpar;w قيم النقطة الحالية عند اللحظة t&period;<&sol;figcaption><&sol;figure>&NewLine;&NewLine;&NewLine;&NewLine;<h2 class&equals;"wp-block-heading">الأداء العملي<&sol;h2>&NewLine;&NewLine;&NewLine;&NewLine;<p>لكونها مبنية على نقاط قوة سابقاتها، فإن خوارزمية أدم ADAM هي أحد أفضل الخوارزميات التحسينية على الإطلاق، وذلك إن لم تكن أصلا أفضلها&period; فنجد أن هذه الخوارزمية تقدم أداء أعلى بهامش كبير من أداء نظيراتها، بحيث تتفوق عليهم لا من حيث كلفة تدريب النماذج فقط بل ومن حيث الأداء السريع والعالي&period;<&sol;p>&NewLine;&NewLine;&NewLine;<div class&equals;"wp-block-image">&NewLine;<figure class&equals;"aligncenter size-full"><img src&equals;"https&colon;&sol;&sol;elakademiapost&period;com&sol;wp-content&sol;uploads&sol;2022&sol;08&sol;Adam&lowbar;training&period;png" alt&equals;"" class&equals;"wp-image-53413"&sol;><figcaption>يبين المنحنى أداء مجموعة من الخوارزميات بالمقارنة مع أداء خوارزمية أدم في التدريب التحسيني لشبكة عصبية متعددة الطبقات على صور MNIST&period; المصدر غووغل&period;<&sol;figcaption><&sol;figure><&sol;div>&NewLine;&NewLine;&NewLine;<h2 class&equals;"wp-block-heading">مصادر<&sol;h2>&NewLine;&NewLine;&NewLine;&NewLine;<ol class&equals;"wp-block-list"><li><a href&equals;"https&colon;&sol;&sol;machinelearningmastery&period;com&sol;adam-optimization-algorithm-for-deep-learning&sol;" target&equals;"&lowbar;blank" rel&equals;"noreferrer noopener">MachineLearningMastery<&sol;a><&sol;li><li><a href&equals;"https&colon;&sol;&sol;www&period;geeksforgeeks&period;org&sol;intuition-of-adam-optimizer&sol;" target&equals;"&lowbar;blank" rel&equals;"noreferrer noopener">GeeksforGeeks<&sol;a><&sol;li><li><a href&equals;"https&colon;&sol;&sol;optimization&period;cbe&period;cornell&period;edu&sol;index&period;php&quest;title&equals;Adam" target&equals;"&lowbar;blank" rel&equals;"noreferrer noopener">Cornell<&sol;a><&sol;li><&sol;ol>&NewLine;<div class&equals;"uwp&lowbar;widgets uwp&lowbar;widget&lowbar;author&lowbar;box bsui sdel-9a8e25eb" ><div class&equals;"d-block text-center text-md-start d-md-flex p-3 bg-light ">&NewLine;&Tab;&Tab;&Tab;&Tab;<a href&equals;"https&colon;&sol;&sol;elakademiapost&period;com&sol;profile&sol;bahibrahim&sol;"><img src&equals;"https&colon;&sol;&sol;elakademiapost&period;com&sol;wp-content&sol;uploads&sol;2022&sol;06&sol;1-2&lowbar;uwp&lowbar;avatar&lowbar;thumb&period;jpg" class&equals;"rounded-circle shadow border border-white border-width-4 me-3" width&equals;"60" height&equals;"60" alt&equals;"bahi brahim"><&sol;a>&NewLine;&Tab;&Tab;&Tab;&Tab;<div class&equals;"media-body">&NewLine;&Tab;&Tab;&Tab;&Tab;&Tab;<h5 class&equals;"mt-0">Author&colon; <a href&equals;"https&colon;&sol;&sol;elakademiapost&period;com&sol;profile&sol;bahibrahim&sol;">bahi brahim<&sol;a><&sol;h5>&NewLine;&Tab;&Tab;&Tab;&Tab;&Tab;&NewLine;&Tab;&Tab;&Tab;&Tab;&Tab;<p><&sol;p>&NewLine;&Tab;&Tab;&Tab;&Tab;<&sol;div>&NewLine;&Tab;&Tab;&Tab;<&sol;div><&sol;div><&sol;div><div style&equals;'text-align&colon;center' class&equals;'yasr-auto-insert-visitor'><&excl;--Yasr Visitor Votes Shortcode--><div id&equals;'yasr&lowbar;visitor&lowbar;votes&lowbar;58f29225b6bbe' class&equals;'yasr-visitor-votes'><div class&equals;"yasr-custom-text-vv-before yasr-custom-text-vv-before-53403">اضغط هنا لتقييم التقرير<&sol;div><div id&equals;'yasr-vv-second-row-container-58f29225b6bbe' &NewLine; class&equals;'yasr-vv-second-row-container'><div id&equals;'yasr-visitor-votes-rater-58f29225b6bbe' &NewLine; class&equals;'yasr-rater-stars-vv' &NewLine; data-rater-postid&equals;'53403' &NewLine; data-rating&equals;'0' &NewLine; data-rater-starsize&equals;'32' &NewLine; data-rater-readonly&equals;'false' &NewLine; data-rater-nonce&equals;'79bfbbed13' &NewLine; data-issingular&equals;'true' &NewLine; ><&sol;div><div class&equals;"yasr-vv-stats-text-container" id&equals;"yasr-vv-stats-text-container-58f29225b6bbe"><svg xmlns&equals;"https&colon;&sol;&sol;www&period;w3&period;org&sol;2000&sol;svg" width&equals;"20" height&equals;"20" &NewLine; class&equals;"yasr-dashicons-visitor-stats" &NewLine; data-postid&equals;"53403" &NewLine; id&equals;"yasr-stats-dashicon-58f29225b6bbe"> &NewLine; <path d&equals;"M18 18v-16h-4v16h4zM12 18v-11h-4v11h4zM6 18v-8h-4v8h4z"><&sol;path> &NewLine; <&sol;svg><span id&equals;"yasr-vv-text-container-58f29225b6bbe" class&equals;"yasr-vv-text-container">&lbrack;Average&colon; <span id&equals;"yasr-vv-average-container-58f29225b6bbe">0<&sol;span>&rsqb;<&sol;span><&sol;div><div id&equals;'yasr-vv-loader-58f29225b6bbe' class&equals;'yasr-vv-container-loader'><&sol;div><&sol;div><div id&equals;'yasr-vv-bottom-container-58f29225b6bbe' class&equals;'yasr-vv-bottom-container'><&sol;div><&sol;div><&excl;--End Yasr Visitor Votes Shortcode--><&sol;div>

Related Post
bahi brahim

Share
Published by
bahi brahim

Recent Posts

هل “جي بي تي-5” كارثة؟: أم مجرد بداية صعبة لثورة الذكاء الاصطناعي التي تعثرت؟

بعد شهور من الترقب والحماس، أطلقت شركة "أوبن إيه آي" (OpenAI) نموذجها اللغوي الأحدث "جي…

14 ساعة ago

“علم الجوع”: العلم وراء المجاعة ورحلة الجسد القاتلة من الجوع إلى الانهيار التام

في عالمٍ تتباين فيه الأقدار حدّ التناقض، حيث تُزيَّن موائد البعض بأشهى الأطعمة وتُلتقط صورها…

يومين ago

“الجينوم الاصطناعي”: هل يكتب العلماء دستور الحياة من جديد؟

"تصميم الحياة " ثورة في عالم البيولوجيا التخليقية في خطوة جريئة وغير مسبوقة، أعلن تحالف…

3 أيام ago

“قرد داروين”.. قفزة صينية نحو عصر جديد من الحوسبة تحاكي الدماغ البشري

لطالما كان حلم محاكاة العقل البشري، هذا الأعجوبة البيولوجية المعقدة، هدفًا أسمى للعلماء والمهندسين. فمنذ…

4 أيام ago

لاري ريتشاردسون.. قصة القط الذي فضح هشاشة التقييم العلمي وأخلاقيات النشر الأكاديمي!

في عالم البحث العلمي، حيث تُبنى المسيرة المهنية للعلماء على أساس الأصالة والدقة العلمية والاعتراف…

4 أيام ago

حقنة بمليوني دولار: لماذا يعجز العلم عن تحقيق المساواة في علاج الأمراض النادرة؟

حكاية حقنة الأمل واليأس لم تكن حكاية على، الطفل المصاب بضمور العضلات الشوكي، والذي تبرع…

5 أيام ago