Flo*_*szt 8 python neural-network non-linear-regression keras
我从4次多项式生成了一些数据,并希望在Keras中创建回归模型以适合该多项式。问题在于,拟合后的预测似乎基本上是线性的。由于这是我第一次使用神经网络,因此我假设我犯了一个非常琐碎而愚蠢的错误。
这是我的代码:
model = Sequential()
model.add(Dense(units=200, input_dim=1))
model.add(Activation('relu'))
model.add(Dense(units=45))
model.add(Activation('relu'))
model.add(Dense(units=1))
model.compile(loss='mean_squared_error',
optimizer='sgd')
model.fit(x_train, y_train, epochs=20, batch_size=50)
loss_and_metrics = model.evaluate(x_test, y_test, batch_size=100)
classes = model.predict(x_test, batch_size=1)
Run Code Online (Sandbox Code Playgroud)
x_train
和y_train
numpy数组,包含此文件中的前9900个条目。
我尝试了不同的batch_size,时代数,图层大小和训练数据量。似乎没有任何帮助。
请指出所有您认为没有意义的内容!
神经网络通常不能很好地推导多项式函数。但是,如果您的训练和测试数据来自同一范围,则可以实现非常好的结果。我生成了一些数据并使用了您的代码:
import numpy as np
x_train=np.random.rand(9000)
y_train=x_train**4+x_train**3-x_train
x_train=x_train.reshape(len(x_train),1)
x_test=np.linspace(0,1,100)
y_test=x_test**4+x_test**3-x_test
x_test=x_test.reshape(len(x_test),1)
model = Sequential()
model.add(Dense(units=200, input_dim=1))
model.add(Activation('relu'))
model.add(Dense(units=45))
model.add(Activation('relu'))
model.add(Dense(units=1))
model.compile(loss='mean_squared_error',
optimizer='sgd')
model.fit(x_train, y_train, epochs=40, batch_size=50, verbose=1)
loss_and_metrics = model.evaluate(x_test, y_test, batch_size=100)
classes = model.predict(x_test, batch_size=1)
test=x_test.reshape(-1)
plt.plot(test,classes,c='r')
plt.plot(test,y_test,c='b')
plt.show()
Run Code Online (Sandbox Code Playgroud)
请注意,我增加到epochs
40以得到更多的迭代和更准确的结果。我还将verbose=1
着眼于损失的表现。损失确实减少到了7.4564e-04
,这是我得到的结果。红线是网络的预测,蓝线是正确的值。您会看到它们彼此之间非常接近。