Search results:
Found 6
Listing 1 - 6 of 6 |
Sort by
|
The aim of this paper is to design fast feed forward neural network to present a method to solve second order boundary value problem for ordinary differential equations. That is to develop an algorithm which can speedup the solution times, reduce solver failures, and increase possibility of obtaining the globally optimal solution and we use several different training algorithms many of them having a very fast convergence rate for reasonable size networks.Finally, we illustrate the method by solving model problem and present comparison with solutions obtained using other different method .
الهدف من البحث هو تصميم شبكة عصبية ذات تغـذية تقـدمية تمثل طريقة لحل مسائل قيم حدودية للمعادلات التفاضلية الاعتيادية وهذا يعني تطوير خوارزمية التدريب بحيث تسرع زمن الحل وتقلل من حالات الفشل في الحصول على الحل و تزيد أمكانية الحصول على الحل المثالي الرئيسي واستخدمنا في ذلك عدد من خوارزميات التدريب المختلفة بعضها يمتلك نسبة تقارب سريعة جدا في حالة الشبكات التي تمتلك أحجام معقولة أخيرا وضحنا الطريقة من خلال حل مثالين وقارنا نتائج الشبكة المقترحة مع نتائج المصدر[7] .
Artificial neural network --- Feed Forward neural network --- Training Algorithm --- ODE .
The aim of this paper is to design fast feed forward neural network to present a method to solve initial value problems for ordinary differential equations. That is to develop an algorithm which can speedup the solution times, reduce solver failures, and increase possibility of obtaining the globally optimal solution.And we use several different training algorithms many of them having a very fast convergence rate for reasonable size networks.Finally, we illustrate the method by solving model problem and present comparison with solutions obtained using other different methods
الهدف من البحث هو تصميم شبكة عصبية ذات تغـذية تقـدمية مسرعة تمثل طريقة لحل مسائل قيم ابتدائية للمعادلات التفاضلية الاعتيادية وهذا يعني تطوير خوارزمية التدريب بحيث تسرع زمن الحل وتقلل من حالات الفشل في الحصول على الحل و تزيد أمكانية الحصول على الحل المثالي الرئيسي واستخدمنا في ذلك عدد من خوارزميات التدريب المختلفة بعضها يمتلك نسبة تقارب سريعة جدا في حالة الشبكات التي تمتلك أحجام معقولة .أخيرا وضحنا الطريقة من خلال حل مثال وقارنا نتائج الشبكة المقترحة مع نتائج حصلنا عليها باستخدام طرق مختلفة أخرى .
Artificial neural network --- Feed Forward neural network --- Training Algorithm .
Recently, there has been an increasing interest in the study of regular and perturbed systems.The aim of this paper is to design artificial neural networks for solve regular perturbation problemswith initial and boundary conditions. We design a multi-layer collocation neural network havingone hidden layer with 5 hidden units (neurons) and one linear output unit the sigmoid activationfunction of each hidden unit is ridge basis function where the network trained by back propagationwith different training algorithms such as quasi-Newton, Levenberg-Marquardt, and BayesianRegulation. Finally the results of numerical experiments are compared with the exact solution inillustrative examples to confirm the accuracy and efficiency of the presented scheme.
الهدف من هذا البحث هو حل مسائل الاضطراب المنتظمة باستخدام الشبكات العصبية. استخدمنا شبكة متعددةالطبقات ذات طبقة خفية واحدة ذو خمس وحدات (عصبونات) خفية و وحدة أخراج خطية دالة الاستثارة لكل وحدةخفية هي دالة الأساس الصلبة حيث أن الشبكة دربت بواسطة الانتشار المرتد مع خوارزميات تدريب مختلفة مثلشبه- نيوتن ، لڤنبرك- ماركوادت و بايسن. أخيرا النتائج للاختبارات العددية قورنت مع الحل المضبوط في أمثلةتوضيحية لتعزيز و تأكيد الدقة و كفاءة للتقنية المقترحة
In this study, He's parallel numerical algorithm by neural network is applied to type ofintegration of fractional equations is Abel’s integral equations of the 1st and 2nd kinds. Using aLevenberge – Marquaradt training algorithm as a tool to train the network. To show the efficiency ofthe method, some type of Abel’s integral equations is solved as numerical examples. Numericalresults show that the new method is very efficient problems with high accuracy.
In this paper, we derive and prove the stability bounds of the momentum coefficient µ and the learning rate η of the back propagation updating rule in Artificial Neural Networks .The theoretical upper bound of learning rate η is derived and its practical approximation is obtained
يتضمن البحث اشتقاق وبرهان حدود أو الفترة التي ينتمي إليها ثابت العزم µ ومعدل التعلم η لقاعدة التدريب المرتد في الشبكات العصبية الصناعية كذلك يتضمن البحث اشتقاق القيد الأعلى لمعدل التعلم η نظريا والقيمة التقريبية عمليا.
In this paper, we focus on designing feed forward neural network (FFNN) for solving Mixed Volterra – Fredholm Integral Equations (MVFIEs) of second kind in 2–dimensions. in our method, we present a multi – layers model consisting of a hidden layer which has five hidden units (neurons) and one linear output unit. Transfer function (Log – sigmoid) and training algorithm (Levenberg – Marquardt) are used as a sigmoid activation of each unit. A comparison between the results of numerical experiment and the analytic solution of some examples has been carried out in order to justify the efficiency and the accuracy of our method.
الهدف الاساسي في هذا البحث هو تقديم طريقه عدديه جديده لحل هذا النوع من المعادلات باستخدام الشبكات العصبية ANN)). حيث تم تصميم شبة عصبيه ذات تغذية اماميه(FFNN ) سريعة, هذا التصميم ذو الطبقات المتعددة والذي يحوي على طبقه واحده خفيه تحتوي على خمسة وحدات خفيه وتستخدم الدالة التحويل (log_sigmoid ) وطبقة واحدة للإخراج, وتم تدريب الشبة باستخدام خوارزمية ليفن برك (Levenberg – Marquardt) . ولبيان دقة و كفاءة الطريقة المقدمة تم مقارنة نتائج الامثلة التوضيحية مع الحلول المضبوطة لهذه الأمثلة, و من خلال المقارنة تبين بان الطريقة ذات كفاءة و دقة عالية وذات خطاء قليل جدا.
Listing 1 - 6 of 6 |
Sort by
|