我有一个与Tensorflow连接的python代码.它应该返回单个结果集.但是我得到了下面提到的警告以及结果.
警告:tensorflow:从C:\ Users\vsureshx079451\AppData\Local\Programs\Python\Python36\lib\site-packages\tflearn\objectives.py:66:使用keep_dims调用reduce_sum(来自tensorflow.python.ops.math_ops)已弃用,将在以后的版本中删除.更新说明:不推荐使用keep_dims,使用keepdims代替2018-02-04 19:12:04.860370:IC:\ tf_jenkins\workspace\rel-win\M\windows\PY\36\tensorflow\core\platform\cpu_feature_guard.cc :137]您的CPU支持未编译此TensorFlow二进制文件的指令:AVX AVX2
结果在这里!
我将在这里放一小段TensorFlow代码.请让我知道如何压制此警告.
注意:我从C#调用这个Python文件.所以我不想显示除结果之外的任何东西.
代码片段:
self.words = data['words']
self.classes = data['classes']
train_x = data['train_x']
train_y = data['train_y']
with open('intents.json') as json_data:
self.intents = json.load(json_data)
#input("Press Enter to continue...")
tf.reset_default_graph()
net = tflearn.input_data(shape=[None, len(train_x[0])])
net = tflearn.fully_connected(net, 8)
net = tflearn.fully_connected(net, 8)
net = tflearn.fully_connected(net, len(train_y[0]), activation='softmax')
net = tflearn.regression(net)
# Define model and setup tensorboard
self.model = tflearn.DNN(net, tensorboard_dir='tflearn_logs')
Run Code Online (Sandbox Code Playgroud)
编辑:我也试过这个,它没用.
import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
Run Code Online (Sandbox Code Playgroud) 我已按照网站指南安装了tensorflow.Tensorflow代码运行完美,我还安装了tflearn.问题是每当我尝试导入tflearn它说"ImportError:没有名为'tflearn'的模块"但是tflearn在site-packages目录中
我有一个Anaconda安装和一个用于运行tensorflow代码的Conda环境
我收到了一些这种格式的数据和以下细节:
person1, day1, feature1, feature2, ..., featureN, label
person1, day2, feature1, feature2, ..., featureN, label
...
person1, dayN, feature1, feature2, ..., featureN, label
person2, day1, feature1, feature2, ..., featureN, label
person2, day2, feature1, feature2, ..., featureN, label
...
person2, dayN, feature1, feature2, ..., featureN, label
...
Run Code Online (Sandbox Code Playgroud)
目标是预测第二天的人的标签,因此dayN + 1的标签,无论是基于每个人还是整体(每个人对我更有意义).我可以自由地重新格式化数据(它不是很大).基于上面的一些阅读之后,我认为动态RNN(LSTM)可能效果最好:
如果对我的数据没有意义,请在这里阻止我.问题是:
如何为tensorflow/tflearn提供/格式化这些数据?
我使用tflearn 查看了这个例子,但是我不理解它的输入格式,所以我可以"镜像"它到我的.同样地,在一个非常相似的问题上找到了这篇文章,但看起来海报所拥有的样本彼此之间没有相关性,因为它们在我的中.我对tensorflow的体验仅限于其入门页面.
我的问题很简单,也很直接.批量大小在训练和预测神经网络时指定了什么.如何对其进行可视化,以便清楚地了解数据如何馈送到网络.
假设我有一个自动编码器
encoder = tflearn.input_data(shape=[None, 41])
encoder = tflearn.fully_connected(encoder, 41,activation='relu')
Run Code Online (Sandbox Code Playgroud)
我正在输入带有41个功能的csv文件,所以我理解的是它将从csv文件中获取每个功能,并在批量大小为1时将其提供给第一层的41个神经元.
但是当我将批量大小增加到100时,100个批次的41个特征将如何被馈送到该网络?
model.fit(test_set, test_labels_set, n_epoch=1, validation_set=(valid_set, valid_labels_set),
run_id="auto_encoder", batch_size=100,show_metric=True, snapshot_epoch=False)
Run Code Online (Sandbox Code Playgroud)
是否会对批次或其中的某些操作进行标准化?
两种情况下的epoc数量相同
我正在张量流中使用 tf.learn 训练 LSTM。为此,我将数据分为训练(90%)和验证(10%)。据我了解,模型通常比验证数据更适合训练数据,但我得到了相反的结果。验证集的损失更低,准确性更高。
正如我在其他答案中读到的那样,这可能是因为验证期间未应用 dropout。然而,当我从 LSTM 架构中删除 dropout 时,验证损失仍然低于训练损失(尽管差异较小)。
此外,每个 epoch 结束时显示的损失并不是每个批次损失的平均值(例如使用 Keras 时)。这是他最后一批的损失。我也认为这可能是我的结果的一个原因,但事实证明并非如此。
Training samples: 783
Validation samples: 87
--
Training Step: 4 | total loss: 1.08214 | time: 1.327s
| Adam | epoch: 001 | loss: 1.08214 - acc: 0.7549 | val_loss: 0.53043 - val_acc: 0.9885 -- iter: 783/783
--
Training Step: 8 | total loss: 0.41462 | time: 1.117s
| Adam | epoch: 002 | loss: 0.41462 - acc: 0.9759 | val_loss: 0.17027 - val_acc: 1.0000 …Run Code Online (Sandbox Code Playgroud) 我需要在TensorFlow中创建一个矩阵来存储一些值.诀窍是矩阵必须支持动态形状.
我试图做同样的事情,我会做numpy:
myVar = tf.Variable(tf.zeros((x,y), validate_shape=False)
Run Code Online (Sandbox Code Playgroud)
在哪里x=(?)和y=2.但这不起作用,因为零不支持'部分已知的TensorShape',所以,我应该如何在TensorFlow中执行此操作?
有人可以提供Tensorflow完整工作代码的示例
tf.contrib.learn.ExportStrategy
文档缺乏示例.我也在Github或Stackoverflow上找不到任何关于这个看似模糊的Tensorflow操作的例子.
文档:https://www.tensorflow.org/api_docs/python/tf/contrib/learn/ExportStrategy
我有一个MNIST类似的数据集,不适合内存(进程内存,而不是 GPU内存)。我的数据集是 4GB。
这不是TFLearn问题。
据我所知,和需要model.fit一个数组。xy
TFLearn 示例:
model.fit(x, y, n_epoch=10, validation_set=(val_x, val_y))
我想知道是否有一种方法可以传递“批量迭代器”,而不是数组。基本上对于每个批次,我都会从磁盘加载必要的数据。
这样我就不会遇到进程内存溢出错误。
编辑
np.memmap可能是一种选择。但我不知道如何跳过组成标头的前几个字节。
我有一个运行良好的 TF 模型,它是用 Python 和 TFlearn 构建的。有没有办法在另一个系统上运行这个模型而不安装 Tensorflow?它已经经过预训练,所以我只需要通过它运行数据。
我无法使用 TensorFlow 2.0 导入 tflearn
Python 3.7.4 (v3.7.4:e09359112e, Jul 8 2019, 14:54:52)
[Clang 6.0 (clang-600.0.57)] on darwin
Type "help", "copyright", "credits" or "license()" for more information.
>>> import tflearn
Traceback (most recent call last):
File "/Library/Frameworks/Python.framework/Versions/3.7/lib/python3.7/site-packages/tflearn/helpers/summarizer.py", line 9, in <module>
merge_summary = tf.summary.merge
AttributeError: module 'tensorboard.summary._tf.summary' has no attribute 'merge'
During handling of the above exception, another exception occurred:
Traceback (most recent call last):
File "<pyshell#0>", line 1, in <module>
import tflearn
File "/Library/Frameworks/Python.framework/Versions/3.7/lib/python3.7/site-packages/tflearn/__init__.py", line 8, in <module>
from . …Run Code Online (Sandbox Code Playgroud)