zoe*_*ver 2 python machine-learning neural-network keras
我有一个非常简单的脚本,它创建了一个 keras 模型,旨在充当 XOR 门。
我在get_data函数中生成了 40000 个数据点。它创建了两个数组;以某种顺序包含 1 和 0 的输入数组,以及 1 或 0 的输出。
当我运行代码时,它似乎没有学习,每次训练它时我得到的结果都有很大的不同。
from keras import models
from keras import layers
import numpy as np
from random import randint
def get_output(a, b): return 0 if a == b else 1
def get_data ():
data = []
targets = []
for _ in range(40010):
a, b = randint(0, 1), randint(0, 1)
targets.append(get_output(a, b))
data.append([a, b])
return data, targets
data, targets = get_data()
data = np.array(data).astype("float32")
targets = np.array(targets).astype("float32")
test_x = data[40000:]
test_y = targets[40000:]
train_x = data[:40000]
train_y = targets[:40000]
model = models.Sequential()
# input
model.add(layers.Dense(2, activation='relu', input_shape=(2,)))
# hidden
# model.add(layers.Dropout(0.3, noise_shape=None, seed=None))
model.add(layers.Dense(2, activation='relu'))
# model.add(layers.Dropout(0.2, noise_shape=None, seed=None))
model.add(layers.Dense(2, activation='relu'))
# output
model.add(layers.Dense(1, activation='sigmoid')) # sigmoid puts between 0 and 1
model.summary() # print out summary of model
model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])
res = model.fit(train_x, train_y, epochs=2000, batch_size=200, validation_data=(test_x, test_y)) # train
print 'predict: \n', test_x
print model.predict(test_x)
Run Code Online (Sandbox Code Playgroud)
[[0. 1.]
[1. 1.]
[1. 1.]
[0. 0.]
[1. 0.]
[0. 0.]
[0. 0.]
[0. 1.]
[1. 1.]
[1. 0.]]
[[0.6629775 ]
[0.00603844]
[0.00603844]
[0.6629775 ]
[0.6629775 ]
[0.6629775 ]
[0.6629775 ]
[0.6629775 ]
[0.00603844]
[0.6629775 ]]
Run Code Online (Sandbox Code Playgroud)
即使没有 dropout 层,我也得到了非常相似的结果。
你的问题有几个问题。
首先,您的导入是相当非正统的(与您的问题无关,是的,但它有助于坚持一些约定):
from keras.models import Sequential
from keras.layers import Dense
import numpy as np
Run Code Online (Sandbox Code Playgroud)
其次,您不需要数以千计的 XOR 问题示例;只有四种组合:
X = np.array([[0,0],[0,1],[1,0],[1,1]])
y = np.array([[0],[1],[1],[0]])
Run Code Online (Sandbox Code Playgroud)
就这样。
第三,出于同样的原因,您实际上无法使用 XOR 获得“验证”或“测试”数据;在最简单的方法中(即您可以在这里尝试做的事情),您只能使用这 4 种组合来测试模型对函数的学习情况(因为没有更多了!)。
第四,你应该从一个简单的单隐藏层模型开始(多于 2 个单元并且没有 dropout),然后根据需要逐步进行:
model = Sequential()
model.add(Dense(8, activation="relu", input_dim=2))
model.add(Dense(1, activation="sigmoid"))
model.compile(loss='binary_crossentropy', optimizer='adam')
model.fit(X, y, batch_size=1, epochs=1000)
Run Code Online (Sandbox Code Playgroud)
这应该会将您的损失降至 ~ 0.12;它对函数的学习情况如何?
model.predict(X)
# result:
array([[0.31054294],
[0.9702552 ],
[0.93392825],
[0.04611744]], dtype=float32)
y
# result:
array([[0],
[1],
[1],
[0]])
Run Code Online (Sandbox Code Playgroud)
这够好吗?好吧,我不知道 - 正确答案总是“视情况而定”!但是您现在有了一个起点(即可以说是学习某些东西的网络),您可以从中进行进一步的实验......