`scipy.optimize.root`更快找根

Cov*_*ich 1 python performance mathematical-optimization scipy accelerate

我用scipy.optimize.roothybr方法(最好的一个?)找到一个数值函数的根

我在每次迭代时打印残差

delta d 117.960112417 delta d 117.960112417 delta d 117.960112417 delta d 117.960048733 delta d 117.960112427 delta d 117.960112121 delta d 1.46141491664 delta d 0.0322651167588 delta d 0.000363688881595 delta d 4.05494689256e-08

如何通过增加步长,尤其是第一次迭代之间的加速来加速根找到?我不知道算法是如何工作的,但看起来很奇怪3个第一个结果是相同的,3个nexts也完全相同.

阅读文档,我试图修改eps因素,没有成功

编辑:@sasha,这是一个非常基本的功能来说明问题

def f(X1,X2):
    print ' X1 , diff , norm ' , X1 , X2 - X1 , np.linalg.norm(X2 - X1)
    return X2 - X1

Xa = np.array([1000,1000,1000,1000])
Xb = np.array([2000,2000,2000,2000])

SOL = scipy.optimize.root(f,Xa,(Xb,))
Run Code Online (Sandbox Code Playgroud)

结果如下:无论X的长度如何,我们在开始时都有3个相同的迭代

 X1 , diff , norm  [1000 1000 1000 1000] [1000 1000 1000 1000] 2000.0
 X1 , diff , norm  [ 1000.  1000.  1000.  1000.] [ 1000.  1000.  1000.  1000.] 2000.0
 X1 , diff , norm  [ 1000.  1000.  1000.  1000.] [ 1000.  1000.  1000.  1000.] 2000.0
 X1 , diff , norm  [ 1000.0000149  1000.         1000.         1000.       ] [  999.9999851  1000.         1000.         1000.       ] 1999.99999255
 X1 , diff , norm  [ 1000.         1000.0000149  1000.         1000.       ] [ 1000.          999.9999851  1000.         1000.       ] 1999.99999255
 X1 , diff , norm  [ 1000.         1000.         1000.0000149  1000.       ] [ 1000.         1000.          999.9999851  1000.       ] 1999.99999255
 X1 , diff , norm  [ 1000.         1000.         1000.         1000.0000149] [ 1000.         1000.         1000.          999.9999851] 1999.99999255
 X1 , diff , norm  [ 2000.  2000.  2000.  2000.] [-0. -0. -0. -0.] 4.36239133705e-09
 X1 , diff , norm  [ 2000.  2000.  2000.  2000.] [ 0.  0.  0.  0.] 0.0  
Run Code Online (Sandbox Code Playgroud)

Jer*_*est 5

首先,我认为你对函数调用的迭代感到困惑,这些调用并不完全相同.因为您没有为求解器提供Jacobean函数,所以它必须估计Jacobean(或者可能只是它的某些部分)本身.Jacobean基本上是导数的多维等价物.它表示当您略微改变输入时,目标函数的输出如何变化.

大多数数值求解器通过在非常接近当前猜测的某点评估目标函数并检查输出变化多少来数值地估计Jacobeans.我的猜测是你看到的前几个调用是评估目标函数,然后估计Jacobean.第一次调用,你看到任何实际的变化发生在它估计了Jacobean后,然后用它来计算根的下一个猜测.

如果您希望自己检查一下,请尝试为解算器提供回调函数.它将在每次迭代时调用此函数,您可以查看每次迭代的位置.我认为你会发现它仅在几次迭代中收敛,但每次迭代多次调用该函数.

当然,你可以通过为求解器提供一个Jacobean函数来避免所有这些工作,它可以调用它来评估一个点上的Jacobean.如果你这样做,它不需要多次调用来估计它.

该文档包含有关如何添加回调和提供Jacobean功能的信息.如果需要,我可以添加一个例子.

http://docs.scipy.org/doc/scipy-0.14.0/reference/generated/scipy.optimize.root.html