Tensorflow函数tf.nn.weighted_cross_entropy_with_logits()接受参数pos_weight.该文档定义pos_weight为"用于正面例子的系数 ".我认为这意味着增加会pos_weight增加误报的损失并减少假阴性的损失.或者我倒退了吗?
尝试根据AWS文档设置boto3 S3Transfer:
import boto3
client = boto3.client('s3', 'us-east-1')
transfer = S3Transfer(client)
Run Code Online (Sandbox Code Playgroud)
结果:
NameError: name 'S3Transfer' is not defined
Run Code Online (Sandbox Code Playgroud)
试过Python 2.7.11和3.5.1(MacOS),结果相同.boto3已安装并在我的IDE(IntelliJ)中正确解析:
Successfully installed boto3-1.2.3 botocore-1.3.26 docutils-0.12 futures-3.0.5 jmespath-0.9.0 python-dateutil-2.4.2
Run Code Online (Sandbox Code Playgroud)
任何指针将不胜感激.
谢谢,罗恩
我了解Tensorflow需要(用于GPU计算)具有Nvidia Compute Capability> = 3.0的GPU。有许多这样的GPU供您选择。面向游戏的GPU(例如GeForce模型)比诸如特斯拉(Tesla)的面向计算的模型便宜得多。我的不足之处是,面向计算的模型可能缺少视频输出(计算不需要),并且游戏模型可能正在执行32位数学运算而不是64位数学运算。假设Tensorflow使用(或更喜欢)64位,这样做意味着如果与Tensorflow一起使用,游戏模型将无法工作或产生不足的结果?选择与Tensorflow一起使用的GPU应该寻找哪些属性?
在开发神经网络时,通常将训练数据划分为训练数据集、测试数据集和保留数据集(许多人分别将这些数据集称为训练数据集、验证数据集和测试数据集。相同的东西,不同的名称)。许多人建议根据测试数据集中的性能选择超参数。我的问题是:为什么?为什么不最大化训练数据集中超参数的性能,并在我们通过测试数据集中的性能下降检测到过度拟合时停止训练超参数?由于训练通常大于测试,与测试数据集上的训练超参数相比,这不会产生更好的结果吗?
2016 年 7 月 6 日更新
术语发生变化,以匹配下面的评论。在本文中,数据集现在被称为“训练”、“验证”和“测试” 。我不使用测试数据集进行训练。我正在使用 GA 来优化超参数。在外部 GA 训练过程的每次迭代中,GA 都会选择一个新的超参数集,在训练数据集上进行训练,并在验证和测试数据集上进行评估。GA 调整超参数以最大限度地提高训练数据集中的准确性。当检测到网络过拟合(在验证数据集中)时,迭代内的网络训练将停止,而当检测到超参数过拟合时(再次在验证中),外部 GA 训练过程将停止。结果是针对训练数据集进行了伪优化的超参数。问题是:为什么许多来源(例如https://www.cs.toronto.edu/~hinton/absps/JMLRdropout.pdf,第 B.1 节)建议优化验证集上的超参数,而不是训练集上的超参数?引用 Srivasta、Hinton 等人(上面的链接):“在验证集上调整超参数,以便产生最佳验证错误...... ”
在训练期间,我使用tensorflow示例do_eval()函数的修改版定期评估我的tensorflow网络。我的评估损失是:
evalLoss = tf.nn.l2_loss(tf.sub(prediction, truthValues_placeholder))
Run Code Online (Sandbox Code Playgroud)
这将产生一个标量损耗值。我通过feed_dict在占位符中输入批处理真值。
提前致谢。
有人知道这里的Tensorflow编译的可执行文件是否包括AVX支持?我已经在Google Compute Engine上运行Tensorflow的编译版本,并且运行缓慢。狗慢。冷糖蜜变慢。洛杉矶交通缓慢。本文说,使用AVX支持进行编译可以显着提高Google Compute Engine的性能,但是当我在该站点上执行编译过程时,它将失败。只是想知道AVX是否已在可执行文件中?
performance machine-learning avx google-compute-engine tensorflow
目标:使用pytorch和torchvision创建一个conda环境。Anaconda Navigator 1.8.3,python 3.6,MacOS 10.13.4。
我尝试过的
conda install pytorch torchvision -c pytorchconda update --allpytorch 0.3.1,torch 0.3.1和torchvision 0.2.0现在显示为安装在根环境中。但是,根环境不再是可克隆的。克隆按钮为灰色/禁用(以前是启用/可克隆)。我可以将根环境用作后备环境,但conda的要点是能够创建单独的可处理环境。我想念什么?
更新-----------------
运行conda install -c pytorch pytorch收益:
# All requested packages already installed.但是,如果我激活pytorch环境并在其中列出软件包,则没有包含单词“ torch”的软件包。如果我那么做conda search pytorch,我得到PackagesNotFoundError: The following packages are not available from current channels: - pytorch。如果我激活base环境然后再这样做,conda list则pytorch在基本软件包列表中。那么,如何创建一个包含pytorch的单独环境?
给定一组训练神经网络的训练示例,我们希望或多或少地重视各种训练示例。我们基于示例的“值”(例如有效性或置信度)的某些标准,对每个示例应用0.0到1.0之间的权重。如何在Tensorflow中实现这一点,尤其是在使用时tf.nn.sparse_softmax_cross_entropy_with_logits()?
如何配置IntelliJ 15以使用Mac本机文件路径浏览器(用于选择文件)而不是IntelliJ文件浏览器?我使用的是IntelliJ 15.0.1和Mac OS 10.11.1.谢谢,罗恩
tensorflow ×5
amazon-s3 ×1
anaconda ×1
avx ×1
boto3 ×1
gpu ×1
macos ×1
performance ×1
python ×1
pytorch ×1
statistics ×1
torch ×1