数值最优化(第2版影印版英文版)

数值最优化(第2版影印版英文版)
分享
扫描下方二维码分享到微信
打开微信,点击右上角”+“,
使用”扫一扫“即可将网页分享到朋友圈。
作者: [美] (Jorge Nocedal)
出版社: 科学出版社
2019-02
ISBN: 9787030605511
定价: 198.00
分类: 自然科学
10人买过
  •   本书作者根据在教学、研究和咨询中的经验,写了这本适合学生和实际工作者的书。
      本书提供连续优化中大多数有效方法的全面的新的论述。每一章从基本概念开始,逐步阐述当前可用的技术。
      本书强调实用方法,包含大量图例和练习,适合广大读者阅读,可作为工程、运筹学、数学、计算机科学以及商务方面的研究生教材,也可作为该领域的科研人员和实际工作人员的手册。 Contents
    Preface
    prefcetothe Second Edition
    1 Introduction 1
    Mathematical Formulation 2
    Example:A Transportation Problem 4
    Continuous versus Discrete Optimization 5
    Constrained and Unconstrained Optimization 6
    Global and Local Optimization 6
    Stocbastic and Deterministic Optimization 7
    Convexity 7
    Optimization Algorithms 8
    Notes and References 9
    2 Fundamentals of Unconstrained Optimization 10
    2.1 What ls a Solution? 12
    Recognizing a Local Minimum 14
    Nonsmooth Problems 17
    2.2 Overview of A1gorithms 18
    Two Strategies:Line Search and Trust Region 19
    Search Directions for Line Search Methods 20
    Models for Trust-Region Methods 25
    Scaling 26
    Exercises 27
    3 Line Search Methods 30
    3.1 Step Length 31
    The Wolfe Conditions 33
    The Goldstein Conditions 36
    Sufficient Decrease and Backtracking 37
    3.2 Convergence of Line Search Methods 37
    3.3 Rate of Convergence 41
    Convergence Rate of Steepest Descent 42
    Newton\'s Method 44
    Quasi-Newton Methods 46
    3.4 Newton\'s Method with Hessian Modification 48
    Eigenvalue Modification 49
    Adding a Multiple of the ldentity 51
    Modified Cholesky Factorization 52
    Modified Symmetric Indefinite Factorization 54
    3.5 Step-Length Selection Algorithms 56
    lnterpolation 57
    lnitial Step Length 59
    A Line Search A1gorithm for the Wolfe Conditions 60
    Notes and References 62
    Exercises 63
    4 Trust-Region Methods 66
    Outline of the Trust-Region Approach 68
    4.1 A1gorithms Based on the Cauchy Point 71
    The Cauchy Point 71
    lmpro时ng on the Cauchy Point 73
    The Dogleg Method 73
    Two-Dinlensional Subspace Mininlization 76
    4.2 Global Convergence 77
    Reduction Obtained by the Cauchy Point 77
    Convergence to Stationary Points 79
    4.3 lterative Solution of the Subproblem 83
    The Hard Case 87
    Proof of Theorem 4.1 89
    Convergence of Algorithms Based on Nearly Exact Solutions 91
    4.4 Local Convergence ofTrust-Region Newton Methods 92
    4.5 0ther Enhancements 95
    Scaling 95
    Trust Regions in 0ther Norms 97
    Notes and References 98
    Exercises 98
    5 Conjugate Gradient Methods 101
    5.1 The linear Conjugate Gradient Method 102
    Conjugate Direction Methods 102
    Basic Properties of thee Conjugate Gradient Method 107
    A Practical Form of the Conjugate Gradient Method 111
    Rate of Convergence 112
    Preconditioning 118
    Practical Preconditioners 120
    5.2 Nonlinear Conjugate Gradient Methods 121
    The Fletcher-Reeves Method 121
    The Polak-Ribière Method and Variants 122
    Quadratic Termination and Restarts 124
    Behavior of the Fletcher-Reeves Method 125
    Global Convergence 127
    Numerical Performance 131
    Notes and Reference 132
    Exercises 133
    6 Quasi-Newton Methods 135
    6.1 The BFGS Method 136
    Properties ofthe BFGS Method 141
    Implementation 142
    6.2 The SR1 Method 144
    Properties of SR1 Updating 147
    6.3 The Broyden Class 149
    6.4 Convergence Analysis 153
    Global Convergence of the BFGS Method 153
    Superlinear Convergence of the BFGS Method 156
    Convergence Analysis of the SR1 Method 160
    Notes and References 161
    Exercises 162
    7 Large-Scale Unconstrained optimization 164
    7.1 lnexact Newton Methods 165
    Local Convergence of Inexact Newton Methods 166
    Line Search Newton-CG Method 168
    Trust-Region Newton-CG Method 170
    Preconditioning the Trust-Region Newton-CG Method 174
    Trust-Region Newton-Lanczos Method 175
    7.2 Limited-Memory Quasi-Newton Methods 176
    Limited-Memory BFGS 177
    Relationship with Conjugate Gradient Methods 180
    General Lirnited:d-Memory Updatiug 181
    Compact Representation of BFGS Updating 181
    Unrolling the Update 184
    7.3 Sparse Quasi-Newton Updates 185
    7.4 Algorithms for Partially Separable Fnnctions 186
    7.5 Perspectives and Sotrware 189
    Notes and References 190
    Exercises 191
    8 Calculating Derivatives 193
    8.1 Finite-Difference Derivative Approximations 194
    Approximating the Gradient 195
    Approximating a Sparse Jacobian 197
    Approximatiug the Hessian 201
    Approximatiug a Sparse Hessian 202
    8.2 Automatic Differentiation 204
    Au Example 205
    The Forward Mode 206
    The Reverse Mode 207
    Vector Fnnctions and Partial Separablity 210
    Calculating Jacobians ofVector Funlctions 212
    Calculating Hessians:Forward Mode 213
    Calculating Hessians:Reverse Mode 215
    Current Lirnitations 216
    Notess and References 217
    Exercises 217
    9 Derivatve-Free Optiimization 220
    9.1 Finite Differences and Noise 221
    9.2 Model-Based Methods 223
    Interpolation aod Polyoomial Bases 226
    Updating the Interpolation Set 227
    A Method Based on Minimum-Change Updating 228
    9.3 Coordinate and Pattern-Search Methods 229
    Coordinate Search Method 230
    Pattern-Search Methods 231
    9.4 A Conjugate-Direction Method 234
    9.5 Nelder-Mead Method 238
    9.6 Implicit Filtering 240
    Notes and References 242
    Exercises 242
    10 
  • 内容简介:
      本书作者根据在教学、研究和咨询中的经验,写了这本适合学生和实际工作者的书。
      本书提供连续优化中大多数有效方法的全面的新的论述。每一章从基本概念开始,逐步阐述当前可用的技术。
      本书强调实用方法,包含大量图例和练习,适合广大读者阅读,可作为工程、运筹学、数学、计算机科学以及商务方面的研究生教材,也可作为该领域的科研人员和实际工作人员的手册。
  • 目录:
    Contents
    Preface
    prefcetothe Second Edition
    1 Introduction 1
    Mathematical Formulation 2
    Example:A Transportation Problem 4
    Continuous versus Discrete Optimization 5
    Constrained and Unconstrained Optimization 6
    Global and Local Optimization 6
    Stocbastic and Deterministic Optimization 7
    Convexity 7
    Optimization Algorithms 8
    Notes and References 9
    2 Fundamentals of Unconstrained Optimization 10
    2.1 What ls a Solution? 12
    Recognizing a Local Minimum 14
    Nonsmooth Problems 17
    2.2 Overview of A1gorithms 18
    Two Strategies:Line Search and Trust Region 19
    Search Directions for Line Search Methods 20
    Models for Trust-Region Methods 25
    Scaling 26
    Exercises 27
    3 Line Search Methods 30
    3.1 Step Length 31
    The Wolfe Conditions 33
    The Goldstein Conditions 36
    Sufficient Decrease and Backtracking 37
    3.2 Convergence of Line Search Methods 37
    3.3 Rate of Convergence 41
    Convergence Rate of Steepest Descent 42
    Newton\'s Method 44
    Quasi-Newton Methods 46
    3.4 Newton\'s Method with Hessian Modification 48
    Eigenvalue Modification 49
    Adding a Multiple of the ldentity 51
    Modified Cholesky Factorization 52
    Modified Symmetric Indefinite Factorization 54
    3.5 Step-Length Selection Algorithms 56
    lnterpolation 57
    lnitial Step Length 59
    A Line Search A1gorithm for the Wolfe Conditions 60
    Notes and References 62
    Exercises 63
    4 Trust-Region Methods 66
    Outline of the Trust-Region Approach 68
    4.1 A1gorithms Based on the Cauchy Point 71
    The Cauchy Point 71
    lmpro时ng on the Cauchy Point 73
    The Dogleg Method 73
    Two-Dinlensional Subspace Mininlization 76
    4.2 Global Convergence 77
    Reduction Obtained by the Cauchy Point 77
    Convergence to Stationary Points 79
    4.3 lterative Solution of the Subproblem 83
    The Hard Case 87
    Proof of Theorem 4.1 89
    Convergence of Algorithms Based on Nearly Exact Solutions 91
    4.4 Local Convergence ofTrust-Region Newton Methods 92
    4.5 0ther Enhancements 95
    Scaling 95
    Trust Regions in 0ther Norms 97
    Notes and References 98
    Exercises 98
    5 Conjugate Gradient Methods 101
    5.1 The linear Conjugate Gradient Method 102
    Conjugate Direction Methods 102
    Basic Properties of thee Conjugate Gradient Method 107
    A Practical Form of the Conjugate Gradient Method 111
    Rate of Convergence 112
    Preconditioning 118
    Practical Preconditioners 120
    5.2 Nonlinear Conjugate Gradient Methods 121
    The Fletcher-Reeves Method 121
    The Polak-Ribière Method and Variants 122
    Quadratic Termination and Restarts 124
    Behavior of the Fletcher-Reeves Method 125
    Global Convergence 127
    Numerical Performance 131
    Notes and Reference 132
    Exercises 133
    6 Quasi-Newton Methods 135
    6.1 The BFGS Method 136
    Properties ofthe BFGS Method 141
    Implementation 142
    6.2 The SR1 Method 144
    Properties of SR1 Updating 147
    6.3 The Broyden Class 149
    6.4 Convergence Analysis 153
    Global Convergence of the BFGS Method 153
    Superlinear Convergence of the BFGS Method 156
    Convergence Analysis of the SR1 Method 160
    Notes and References 161
    Exercises 162
    7 Large-Scale Unconstrained optimization 164
    7.1 lnexact Newton Methods 165
    Local Convergence of Inexact Newton Methods 166
    Line Search Newton-CG Method 168
    Trust-Region Newton-CG Method 170
    Preconditioning the Trust-Region Newton-CG Method 174
    Trust-Region Newton-Lanczos Method 175
    7.2 Limited-Memory Quasi-Newton Methods 176
    Limited-Memory BFGS 177
    Relationship with Conjugate Gradient Methods 180
    General Lirnited:d-Memory Updatiug 181
    Compact Representation of BFGS Updating 181
    Unrolling the Update 184
    7.3 Sparse Quasi-Newton Updates 185
    7.4 Algorithms for Partially Separable Fnnctions 186
    7.5 Perspectives and Sotrware 189
    Notes and References 190
    Exercises 191
    8 Calculating Derivatives 193
    8.1 Finite-Difference Derivative Approximations 194
    Approximating the Gradient 195
    Approximating a Sparse Jacobian 197
    Approximatiug the Hessian 201
    Approximatiug a Sparse Hessian 202
    8.2 Automatic Differentiation 204
    Au Example 205
    The Forward Mode 206
    The Reverse Mode 207
    Vector Fnnctions and Partial Separablity 210
    Calculating Jacobians ofVector Funlctions 212
    Calculating Hessians:Forward Mode 213
    Calculating Hessians:Reverse Mode 215
    Current Lirnitations 216
    Notess and References 217
    Exercises 217
    9 Derivatve-Free Optiimization 220
    9.1 Finite Differences and Noise 221
    9.2 Model-Based Methods 223
    Interpolation aod Polyoomial Bases 226
    Updating the Interpolation Set 227
    A Method Based on Minimum-Change Updating 228
    9.3 Coordinate and Pattern-Search Methods 229
    Coordinate Search Method 230
    Pattern-Search Methods 231
    9.4 A Conjugate-Direction Method 234
    9.5 Nelder-Mead Method 238
    9.6 Implicit Filtering 240
    Notes and References 242
    Exercises 242
    10 
查看详情
相关图书 / 更多
数值最优化(第2版影印版英文版)
数值计算方法
谢进
数值最优化(第2版影印版英文版)
数值分析试题解析(第2版)
曹婉容
数值最优化(第2版影印版英文版)
数值分析
周爱辉
数值最优化(第2版影印版英文版)
数值分析(英文版)
杜睿;孙志忠
数值最优化(第2版影印版英文版)
数值分析学习指导与题解
冯象初
数值最优化(第2版影印版英文版)
数值传热学实训--NHT/CFD原理与应用(第二版)
宇波
数值最优化(第2版影印版英文版)
数值分析
王亚红;王秋宝;田茹
数值最优化(第2版影印版英文版)
数值分析原理(第二版)
吴勃英;孙杰宝
数值最优化(第2版影印版英文版)
数值流形法
郑宏 著
数值最优化(第2版影印版英文版)
数值分析(第二版)
徐屹
数值最优化(第2版影印版英文版)
数值计算方法
罗贤兵
数值最优化(第2版影印版英文版)
数值分析算法与Python实现
闫丽宏
您可能感兴趣 / 更多
数值最优化(第2版影印版英文版)
孩子,把你的手给我1:怎么说孩子才爱听,怎么教孩子才肯学?帮助每一位3-12岁孩子的父母结束与孩子的所有冲突!
[美]海姆·G.吉诺特
数值最优化(第2版影印版英文版)
怎样做成大事
[美]丹·加德纳(Dan Gardner) 著;贾拥民 译;湛庐文化 出品;[丹麦]傅以斌(Bent Flyvbjerg)
数值最优化(第2版影印版英文版)
1200年希腊罗马神话
[美]伊迪丝·汉密尔顿
数值最优化(第2版影印版英文版)
黄金圈法则
[美]西蒙·斯涅克 著;磨铁文化 出品
数值最优化(第2版影印版英文版)
汤姆·索亚历险记 彩图注音版 一二三四年级5-6-7-8-9岁小学生课外阅读经典 儿童文学无障碍有声伴读世界名著童话故事
[美]马克 吐温
数值最优化(第2版影印版英文版)
富兰克林自传 名家全译本 改变无数人命运的励志传奇 埃隆马斯克反复推荐 赠富兰克林签名照及精美插图
[美]本杰明·富兰克林 著;李自修 译
数值最优化(第2版影印版英文版)
意大利文艺复兴新艺术史
[美]迈克尔·韦恩·科尔 著;[美]斯蒂芬·J·坎贝尔;邵亦杨
数值最优化(第2版影印版英文版)
汤姆素亚历险记:中小学生课外阅读快乐读书吧 儿童文学无障碍有声伴读世界名著童话故事
[美]马克·吐温
数值最优化(第2版影印版英文版)
老人与海 彩图注音版 一二三四年级5-6-7-8-9岁小学生课外阅读经典 儿童文学无障碍有声伴读世界名著童话故事
[美]海明威
数值最优化(第2版影印版英文版)
养育的觉醒:全面激发孩子自驱力,教你如何心平气和做妈妈
[美]凯文·莱曼 著;唐晓璐 译;斯坦威 出品
数值最优化(第2版影印版英文版)
你在等什么?
[美]斯科特·明钦 著;[中]易万 译;[美]马特 ·斐兰 绘
数值最优化(第2版影印版英文版)
国际大奖图画书系列 共11册(小老鼠的恐惧的大书,大灰狼,红豆与菲比,别烦我,下雪了 ,穿靴子的猫 ,先有蛋,绿 ,特别快递,如果你想看鲸鱼 ,一个部落的孩子 ) 麦克米伦世纪
[美]莱恩·史密斯 (英)埃米莉·格雷维特 (美)劳拉·瓦卡罗·等/文 (英)埃米莉·格雷维特 等/图 彭懿 杨玲玲 阿甲 孙慧阳 白薇 译