当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python SciPy optimize.anderson用法及代码示例


本文简要介绍 python 语言中 scipy.optimize.anderson 的用法。

用法:

scipy.optimize.anderson(F, xin, iter=None, alpha=None, w0=0.01, M=5, verbose=False, maxiter=None, f_tol=None, f_rtol=None, x_tol=None, x_rtol=None, tol_norm=None, line_search='armijo', callback=None, **kw)#

使用(扩展)安德森混合求函数的根。

雅可比行列式由 last 跨越的空间中的 ‘best’ 解形成M向量。因此,只需要MxM 矩阵求逆和MxN 乘法。[哎呀]

参数

F 函数(x)-> f

要查找其根的函数;应该接受并返回一个类似数组的对象。

xin array_like

解决方案的初步猜测

alpha 浮点数,可选

雅可比行列式的初始猜测是 (-1/alpha)。

M 浮点数,可选

要保留的先前向量的数量。默认为 5。

w0 浮点数,可选

数值稳定性的正则化参数。与统一相比,0.01 量级的良好值。

iter 整数,可选

要进行的迭代次数。如果省略(默认),则根据需要制作尽可能多的数量以满足公差。

verbose 布尔型,可选

在每次迭代时将状态打印到标准输出。

maxiter 整数,可选

要进行的最大迭代次数。如果需要更多来满足收敛,则提出NoConvergence。

f_tol 浮点数,可选

残差的绝对容差(在max-norm 中)。如果省略,默认为 6e-6。

f_rtol 浮点数,可选

残差的相对容差。如果省略,则不使用。

x_tol 浮点数,可选

绝对最小步长,由雅可比近似确定。如果步长小于此值,则优化成功终止。如果省略,则不使用。

x_rtol 浮点数,可选

相对最小步长。如果省略,则不使用。

tol_norm 函数(向量)-> 标量,可选

用于收敛检查的范数。默认是最大规范。

line_search {无,‘armijo’(默认),‘wolfe’},可选

使用哪种类型的线搜索来确定雅可比近似给定方向上的步长。默认为‘armijo’。

callback 函数,可选

可选的回调函数。它在每次迭代中被调用为callback(x, f)其中x是当前的解决方案,并且f对应的残差。

返回

sol ndarray

包含最终解决方案的数组(与 x0 的数组类型相似)。

抛出

NoConvergence

当没有找到解决方案时。

参考

[]
  1. 艾尔特,J. Comp。物理, 124, 271 (1996)。

例子

以下函数定义了一个非线性方程组

>>> def fun(x):
...     return [x[0]  + 0.5 * (x[0] - x[1])**3 - 1.0,
...             0.5 * (x[1] - x[0])**3 + x[1]]

可以如下获得解决方案。

>>> from scipy import optimize
>>> sol = optimize.anderson(fun, [0, 0])
>>> sol
array([0.84116588, 0.15883789])

相关用法


注:本文由纯净天空筛选整理自scipy.org大神的英文原创作品 scipy.optimize.anderson。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。