TY - JOUR ID - TI - A modified three-term conjugate gradient method for large –scale optimization طريقة جديدة للتدرج المترافق الاخطية معتمدة على طريقة BFGS AU - Zaydan B. Mohammed زيدان بشير محمد AU - Nazar K. Hussein نزار خلف حسين AU - Zeyad M. Abdullah زياد محمد عبدالله PY - 2020 VL - 25 IS - 3 SP - 116 EP - 120 JO - Tikrit Journal of Pure Science مجلة تكريت للعلوم الصرفة SN - 18131662 24151726 AB - We propose a three-term conjugate gradient method in this paper . The basic idea is to exploit the good properties of the BFGS update. Quasi – Newton method lies a good efficient numerical computational, so we suggested to be based on BFGS method. However, the descent condition and the global convergent is proven under Wolfe condition. The new algorithm is very effective e for solving the large – scale unconstrained optimization problem

طريقة التدرج المترافق المعتمدة على طريقة شبية نيوتن (BFGS) تعطي نتائج عددية كفوءه ، لذلك اقترحنا طريقة جديدة في هذا البحث معتمدة على طريقة (BFGS) حيث تم اثبات خاصية الانحدار الكافي والتقارب المطلق للطريقة المقترحة تحت شروط ولف . الطريقة الجديدة كفوءه جدا في حل مسائل الأمثلية غير المقيدة ذات القياس العالي ER -