2Ob*_*Obe 6 python numpy matrix linear-algebra linear-regression
如果我们想通过使用正规方程式搜索线性回归模型的最佳参数θ:
theta = inv(X ^ T*X)*X ^ T*y
一步是计算inv(X ^ T*X).因此numpy提供了np.linalg.inv()和np.linalg.pinv()
虽然这会导致不同的结果:
X=np.matrix([[1,2104,5,1,45],[1,1416,3,2,40],[1,1534,3,2,30],[1,852,2,1,36]])
y=np.matrix([[460],[232],[315],[178]])
XT=X.T
XTX=XT@X
pinv=np.linalg.pinv(XTX)
theta_pinv=(pinv@XT)@y
print(theta_pinv)
[[188.40031946]
[ 0.3866255 ]
[-56.13824955]
[-92.9672536 ]
[ -3.73781915]]
inv=np.linalg.inv(XTX)
theta_inv=(inv@XT)@y
print(theta_inv)
[[-648.7890625 ]
[ 0.79418945]
[-110.09375 ]
[ -74.0703125 ]
[ -3.69091797]]
Run Code Online (Sandbox Code Playgroud)
第一个输出,即pinv的输出是正确的输出,另外在numpy.linalg.pinv()文档中推荐.但是为什么这个以及inv()和pinv()之间的差异/优点/缺点在哪里.
inv并pinv用于计算(伪)逆作为独立矩阵。不要在计算中实际使用它们。
对于此类线性系统解决方案,numpy.linalg.lstsq如果您具有不可逆的系数矩阵,或者numpy.linalg.solve对于可逆的矩阵(或来自scipy),则使用的合适工具是(或从scipy)。