当我定义(?)资源时,例如为了确保dir结构,是否有可用的循环?
像那样:
for X in [app1,app2] do:
file { '/opt/app/' + X:
ensure => directory,
owner => 'root',
group => 'root',
mode => '0644',
}
Run Code Online (Sandbox Code Playgroud)
我有几十个目录,我真的厌倦了在木偶中宣布它...它需要15 LOC的bash.
有任何想法吗?
我遵循PyBrain教程分类与前馈神经网络,并希望建立自己的分类器.
我不明白如何_convertToOneOfMany修改输出.
为什么初始操作会alldata.addSample(input, [klass])为每个类创建多个输出神经元?
我需要训练网络,然后逐个地提供测试数据.是否包含一些示例或文档?
为了达到这个目的,我对经过训练的网络进行了序列化,并将其用于每个新的输入 问题是,我崩溃了_convertToOneOfMany,甚至我理解它的目的(从这里)我不明白它是如何工作的.
它的行为对我来说不是确定性的.它必须以某种方式解释类和标签,并且必须有一些我缺少的要求.它适用于整个数据集,但如果我只采用随机线它会发疯.
Traceback (most recent call last):
File "ffn_iris.py", line 29, in <module>
tstdata._convertToOneOfMany()
File "/opt/local/Library/Frameworks/Python.framework/Versions/2.6/lib/python2.6/site-packages/PyBrain-0.3-py2.6.egg/pybrain/datasets/classification.py", line 142, in _convertToOneOfMany
newtarg[i, int(oldtarg[i])] = bounds[1]
IndexError: index (2) out of range (0<=index<1) in dimension 1
Run Code Online (Sandbox Code Playgroud)
编辑:更准确地说,让我告诉你我在做什么:我想为互联网上最着名的NN例子训练网络;) - Iris Dataset.
它是这样的:
5.1,3.5,1.4,0.2,0
4.9,3.0,1.4,0.2,0
4.7,3.2,1.3,0.2,0
4.6,3.1,1.5,0.2,0
etc...
Run Code Online (Sandbox Code Playgroud)
班级的最后一个零.整个数据集包含60行.20为20,20为1和20为2.
我用数据和构造数据集读取文件:
alldata = ClassificationDataSet(4, class_labels=['Iris-setosa',
'Iris-versicolor',
'Iris-virginica'])
--- loop here ---
alldata.addSample(line[0:4], line[4])
--- create testing and training sets ---
tstdata, trndata = alldata.splitWithProportion(0.7)
--- converted matrixes ---
trndata._convertToOneOfMany() …Run Code Online (Sandbox Code Playgroud) 我跟踪dbg我的系统.我用了
dbg:trace_port(file,{"/tmp/trace",wrap,atom_to_list(node()),10000000,20})
Run Code Online (Sandbox Code Playgroud)
现在我有几个二进制文件.
从来没有真正使用过这些二进制转储..如何阅读它们?RB?disk_log?如何启动它们以查看日志文件?
有没有类似厨师在github上的公开食谱,这是社区认可的?
我正在用puppet开始构建系统,但是教程还不够,github上的东西还处于开发的后期阶段.