如何计算scipy曲线拟合的可能性?

Yux*_*ang 8 python numpy scipy statsmodels

我有一个非线性模型拟合,如下所示:

曲线拟合

暗实线是模型拟合,灰色部分是原始数据.

问题的简短版本:我如何得到这个模型拟合的可能性,所以我可以进行对数似然比检验?假设残差是正态分布的.

我对统计数据比较陌生,我目前的想法是:

  1. 从曲线拟合中获取残差,并计算残差的方差;

  2. 使用此等式 正态分布的对数似然 并将残差的方差插入西格玛平方,x_i作为实验,mu作为模型拟合;

  3. 计算对数似然比.

这两个完整版的问题可以帮助我吗?

  1. 我的方法是否正确?(我想是这样,但确保真的很棒!)

  2. 在python/scipy/statsmodels中是否有任何现成的函数可以为我执行此操作?

CT *_*Zhu 5

您的似然函数

在此处输入图片说明

这只是高斯分布的概率密度函数的对数的和。

在此处输入图片说明

为残差拟合mu和sigma的可能性,而不是给数据的模型的可能性。总之,您的方法是错误的

假设您正在执行非线性最小二乘,请按照已经提到的@usethedeathstar,直接进行F-test。。考虑下面的示例,该示例是从http://www.walkingrandomly.com/?p=5254修改而来的,我们F-test使用进行操作R。最后,我们将讨论如何将其转换python为。

# construct the data vectors using c()
> xdata = c(-2,-1.64,-1.33,-0.7,0,0.45,1.2,1.64,2.32,2.9)
> ydata = c(0.699369,0.700462,0.695354,1.03905,1.97389,2.41143,1.91091,0.919576,-0.730975,-1.42001)
# some starting values
> p1 = 1
> p2 = 0.2
> p3 = 0.01

# do the fit
> fit1 = nls(ydata ~ p1*cos(p2*xdata) + p2*sin(p1*xdata), start=list(p1=p1,p2=p2))
> fit2 = nls(ydata ~ p1*cos(p2*xdata) + p2*sin(p1*xdata)+p3*xdata, start=list(p1=p1,p2=p2,p3=p3))

# summarise
> summary(fit1)

Formula: ydata ~ p1 * cos(p2 * xdata) + p2 * sin(p1 * xdata)

Parameters:
   Estimate Std. Error t value Pr(>|t|)    
p1 1.881851   0.027430   68.61 2.27e-12 ***
p2 0.700230   0.009153   76.51 9.50e-13 ***
---
Signif. codes:  0 ?**?0.001 ?*?0.01 ??0.05 ??0.1 ??1

Residual standard error: 0.08202 on 8 degrees of freedom

Number of iterations to convergence: 7 
Achieved convergence tolerance: 2.189e-06

> summary(fit2)

Formula: ydata ~ p1 * cos(p2 * xdata) + p2 * sin(p1 * xdata) + p3 * xdata

Parameters:
   Estimate Std. Error t value Pr(>|t|)    
p1  1.90108    0.03520  54.002 1.96e-10 ***
p2  0.70657    0.01167  60.528 8.82e-11 ***
p3  0.02029    0.02166   0.937     0.38    
---
Signif. codes:  0 ?**?0.001 ?*?0.01 ??0.05 ??0.1 ??1

Residual standard error: 0.08243 on 7 degrees of freedom

Number of iterations to convergence: 9 
Achieved convergence tolerance: 2.476e-06

> anova(fit2, fit1)
Analysis of Variance Table

Model 1: ydata ~ p1 * cos(p2 * xdata) + p2 * sin(p1 * xdata) + p3 * xdata
Model 2: ydata ~ p1 * cos(p2 * xdata) + p2 * sin(p1 * xdata)
  Res.Df Res.Sum Sq Df     Sum Sq F value Pr(>F)
1      7   0.047565                             
2      8   0.053813 -1 -0.0062473  0.9194 0.3696
Run Code Online (Sandbox Code Playgroud)

这里我们有两个模型,fit1有2个参数,因此残差有8个自由度;fit2有一个附加参数,且残差具有7个自由度。模型2明显更好吗?不,关于(1,7)自由度,F值为0.9194,并不重要。

要获取ANOVA表:残留DF很简单。残差平方和:0.08202*0.08202*8=0.053810.08243*0.08243*7=0.04756293(注意:“残差标准误差:7自由度上为0.08243”,等等)。在中python,您可以通过获得它(y_observed-y_fitted)**2,因为scipy.optimize.curve_fit()它不返回残差。

F-ratio0.0062473/0.047565*7并获得P值:1-scipy.stats.f.cdf(0.9194, 1, 7)

将它们放在一起,我们就python等效:

In [1]:

import scipy.optimize as so
import scipy.stats as ss
xdata = np.array([-2,-1.64,-1.33,-0.7,0,0.45,1.2,1.64,2.32,2.9])
ydata = np.array([0.699369,0.700462,0.695354,1.03905,1.97389,2.41143,1.91091,0.919576,-0.730975,-1.42001])
def model0(x,p1,p2):
    return p1*np.cos(p2*x) + p2*np.sin(p1*x)
def model1(x,p1,p2,p3):
    return p1*np.cos(p2*x) + p2*np.sin(p1*x)+p3*x
p1, p2, p3 = 1, 0.2, 0.01
fit0=so.curve_fit(model0, xdata, ydata, p0=(p1,p2))[0]
fit1=so.curve_fit(model1, xdata, ydata, p0=(p1,p2,p3))[0]
yfit0=model0(xdata, fit0[0], fit0[1])
yfit1=model1(xdata, fit1[0], fit1[1], fit1[2])
ssq0=((yfit0-ydata)**2).sum()
ssq1=((yfit1-ydata)**2).sum()
df=len(xdata)-3
f_ratio=(ssq0-ssq1)/(ssq1/df)
p=1-ss.f.cdf(f_ratio, 1, df)
In [2]:

print f_ratio, p
0.919387419515 0.369574503394
Run Code Online (Sandbox Code Playgroud)

正如@usethedeathstar指出的那样:当残差呈正态分布时,非线性最小二乘法最大似然。因此,F检验和似然比检验是等效的。因为,F比率是似然比?的单调变换。

或以描述性方式,请参阅:http : //www.stata.com/support/faqs/statistics/chi-squared-and-f-distributions/

  • stats.stackexchange.com上的人们对此会有更好的发言权。从理论上讲,它看起来可能如此,但实际上F检验在正态性假设方面相当强大,因此您仍然可以在大多数时间使用它。希望这可以帮助。祝您修改愉快! (2认同)