research centers


Search results: Found 6

Listing 1 - 6 of 6
Sort by

Article
Design Feed Forward Neural Network To Solve Boundary Value Problems
تصميم شبكة عصبية ذات تغـذية تقـدمية لحل مسائل قيم حدودية

Authors: Luma. N. M. Tawfiq لمى ناجي محمد توفيق --- Muna. H. Ali منى حسين علي
Journal: Journal of university of Anbar for Pure science مجلة جامعة الانبار للعلوم الصرفة ISSN: ISSN: 19918941 Year: 2013 Volume: 7 Issue: 1 Pages: 149-157
Publisher: University of Anbar جامعة الانبار

Loading...
Loading...
Abstract

The aim of this paper is to design fast feed forward neural network to present a method to solve second order boundary value problem for ordinary differential equations. That is to develop an algorithm which can speedup the solution times, reduce solver failures, and increase possibility of obtaining the globally optimal solution and we use several different training algorithms many of them having a very fast convergence rate for reasonable size networks.Finally, we illustrate the method by solving model problem and present comparison with solutions obtained using other different method .

الهدف من البحث هو تصميم شبكة عصبية ذات تغـذية تقـدمية تمثل طريقة لحل مسائل قيم حدودية للمعادلات التفاضلية الاعتيادية وهذا يعني تطوير خوارزمية التدريب بحيث تسرع زمن الحل وتقلل من حالات الفشل في الحصول على الحل و تزيد أمكانية الحصول على الحل المثالي الرئيسي واستخدمنا في ذلك عدد من خوارزميات التدريب المختلفة بعضها يمتلك نسبة تقارب سريعة جدا في حالة الشبكات التي تمتلك أحجام معقولة أخيرا وضحنا الطريقة من خلال حل مثالين وقارنا نتائج الشبكة المقترحة مع نتائج المصدر[7] .


Article
Design Fast Feed Forward Neural Network to Solve Initial Value Problems

Author: Luma.N. M. Tawfiq
Journal: Al-Mustansiriyah Journal of Science مجلة علوم المستنصرية ISSN: 1814635X Year: 2012 Volume: 23 Issue: 6 Pages: 189-196
Publisher: Al-Mustansyriah University الجامعة المستنصرية

Loading...
Loading...
Abstract

The aim of this paper is to design fast feed forward neural network to present a method to solve initial value problems for ordinary differential equations. That is to develop an algorithm which can speedup the solution times, reduce solver failures, and increase possibility of obtaining the globally optimal solution.And we use several different training algorithms many of them having a very fast convergence rate for reasonable size networks.Finally, we illustrate the method by solving model problem and present comparison with solutions obtained using other different methods

الهدف من البحث هو تصميم شبكة عصبية ذات تغـذية تقـدمية مسرعة تمثل طريقة لحل مسائل قيم ابتدائية للمعادلات التفاضلية الاعتيادية وهذا يعني تطوير خوارزمية التدريب بحيث تسرع زمن الحل وتقلل من حالات الفشل في الحصول على الحل و تزيد أمكانية الحصول على الحل المثالي الرئيسي واستخدمنا في ذلك عدد من خوارزميات التدريب المختلفة بعضها يمتلك نسبة تقارب سريعة جدا في حالة الشبكات التي تمتلك أحجام معقولة .أخيرا وضحنا الطريقة من خلال حل مثال وقارنا نتائج الشبكة المقترحة مع نتائج حصلنا عليها باستخدام طرق مختلفة أخرى .


Article
Design Collocation Neural Network for Solve regularly perturbed problems with Initial and Boundary conditions
تصمیم شبكة عصبیة لحل مسائل الاضطراب المنتظمة ذات الشروط الابتدائیة والحدودیة

Author: Khalid. Mindeel. M. Al-Abrahemee خالد مندیل محمد
Journal: journal of al-qadisiyah for pure science(quarterly) مجلة القادسية للعلوم الصرفة (فصلية). ISSN: 19972490 Year: 2016 Volume: 4 Issue: 21 Pages: 18-32
Publisher: Al-Qadisiyah University جامعة القادسية

Loading...
Loading...
Abstract

Recently, there has been an increasing interest in the study of regular and perturbed systems.The aim of this paper is to design artificial neural networks for solve regular perturbation problemswith initial and boundary conditions. We design a multi-layer collocation neural network havingone hidden layer with 5 hidden units (neurons) and one linear output unit the sigmoid activationfunction of each hidden unit is ridge basis function where the network trained by back propagationwith different training algorithms such as quasi-Newton, Levenberg-Marquardt, and BayesianRegulation. Finally the results of numerical experiments are compared with the exact solution inillustrative examples to confirm the accuracy and efficiency of the presented scheme.

الهدف من هذا البحث هو حل مسائل الاضطراب المنتظمة باستخدام الشبكات العصبية. استخدمنا شبكة متعددةالطبقات ذات طبقة خفية واحدة ذو خمس وحدات (عصبونات) خفية و وحدة أخراج خطية دالة الاستثارة لكل وحدةخفية هي دالة الأساس الصلبة حيث أن الشبكة دربت بواسطة الانتشار المرتد مع خوارزميات تدريب مختلفة مثلشبه- نيوتن ، لڤنبرك- ماركوادت و بايسن. أخيرا النتائج للاختبارات العددية قورنت مع الحل المضبوط في أمثلةتوضيحية لتعزيز و تأكيد الدقة و كفاءة للتقنية المقترحة


Article
A parallel Numerical Algorithm for Solving Some Fractional Integral Equations

Journal: Ibn Al-Haitham Journal For Pure And Applied Science مجلة ابن الهيثم للعلوم الصرفة والتطبيقية ISSN: P16094042/ E25213407 Year: 2019 Volume: 32 Issue: 1 Pages: 178-186
Publisher: Baghdad University جامعة بغداد

Loading...
Loading...
Abstract

In this study, He's parallel numerical algorithm by neural network is applied to type ofintegration of fractional equations is Abel’s integral equations of the 1st and 2nd kinds. Using aLevenberge – Marquaradt training algorithm as a tool to train the network. To show the efficiency ofthe method, some type of Abel’s integral equations is solved as numerical examples. Numericalresults show that the new method is very efficient problems with high accuracy.


Article
Stability of Back Propagation Training Algorithm for Neural Networks
أستقـراريـة خـوارزميـة التدريب المرتد للشـبكات العـصبيـة

Author: Luma. N. M. Tawfiq* لمى ناجي محمد توفيق*
Journal: Baghdad Science Journal مجلة بغداد للعلوم ISSN: 20788665 24117986 Year: 2012 Volume: 9 Issue: 4 Pages: 713-719
Publisher: Baghdad University جامعة بغداد

Loading...
Loading...
Abstract

In this paper, we derive and prove the stability bounds of the momentum coefficient µ and the learning rate η of the back propagation updating rule in Artificial Neural Networks .The theoretical upper bound of learning rate η is derived and its practical approximation is obtained

يتضمن البحث اشتقاق وبرهان حدود أو الفترة التي ينتمي إليها ثابت العزم µ ومعدل التعلم η لقاعدة التدريب المرتد في الشبكات العصبية الصناعية كذلك يتضمن البحث اشتقاق القيد الأعلى لمعدل التعلم η نظريا والقيمة التقريبية عمليا.


Article
Solving Mixed Volterra - Fredholm Integral Equation (MVFIE) by Designing Neural Network
حل معادلة فولتيرا - فريدهولم التكاملية المختلطة باستخدام الشبكات العصبية

Authors: Nahdh S. M. Al-Saif ناهض سليم محمد سعيد --- Ameen Sh. Ameen امين شامان امين
Journal: Baghdad Science Journal مجلة بغداد للعلوم ISSN: 20788665 24117986 Year: 2019 Volume: 16 Issue: 1 Pages: 116-120
Publisher: Baghdad University جامعة بغداد

Loading...
Loading...
Abstract

In this paper, we focus on designing feed forward neural network (FFNN) for solving Mixed Volterra – Fredholm Integral Equations (MVFIEs) of second kind in 2–dimensions. in our method, we present a multi – layers model consisting of a hidden layer which has five hidden units (neurons) and one linear output unit. Transfer function (Log – sigmoid) and training algorithm (Levenberg – Marquardt) are used as a sigmoid activation of each unit. A comparison between the results of numerical experiment and the analytic solution of some examples has been carried out in order to justify the efficiency and the accuracy of our method.

الهدف الاساسي في هذا البحث هو تقديم طريقه عدديه جديده لحل هذا النوع من المعادلات باستخدام الشبكات العصبية ANN)). حيث تم تصميم شبة عصبيه ذات تغذية اماميه(FFNN ) سريعة, هذا التصميم ذو الطبقات المتعددة والذي يحوي على طبقه واحده خفيه تحتوي على خمسة وحدات خفيه وتستخدم الدالة التحويل (log_sigmoid ) وطبقة واحدة للإخراج, وتم تدريب الشبة باستخدام خوارزمية ليفن برك (Levenberg – Marquardt) . ولبيان دقة و كفاءة الطريقة المقدمة تم مقارنة نتائج الامثلة التوضيحية مع الحلول المضبوطة لهذه الأمثلة, و من خلال المقارنة تبين بان الطريقة ذات كفاءة و دقة عالية وذات خطاء قليل جدا.

Listing 1 - 6 of 6
Sort by
Narrow your search

Resource type

article (6)


Language

English (5)


Year
From To Submit

2019 (2)

2016 (1)

2013 (1)

2012 (2)