我正在使用Ubuntu 14.04.我正在尝试安装一个需要cmake的程序.当我跑步时,cmake src/
我得到:
qmake: could not exec '/usr/lib/x86_64-linux-gnu/qt4/bin/qmake': No such file or directory
Run Code Online (Sandbox Code Playgroud)
我究竟做错了什么?
我正在使用cudaconvnet与Daniel Nouri的noccn模块进行图像分类,并希望通过拍摄原始图像的大量补丁(并翻转它)来实现数据增强.什么时候发生这种情况最好?
我已经确定了培训过程中的3个阶段,它可以:
a)从数据创建批次时
b)获得下一批培训
c)给定批次时,获取下一个图像以进入网络
在我看来,a)的优点是我可以在所有批次中分散增强数据.但它将占用磁盘上1000倍的空间原始数据集已经是1TB,所以完全不可行.
b)和c)不涉及将新数据存储在磁盘上,但是我可以跨批次分散数据吗?如果我不这样做,那么假设我有batch_size == 128并且我可以增加我的数据1000x,那么接下来的8个批次将包含来自同一类的图像.训练网是不是很糟糕,因为每个训练样本根本不会随机化?
此外,如果我选择b)或c)并从k个训练样例中创建一个新批次,那么数据增加n次将使批量大小为n*k而不是给我n次批次.
例如,在我的情况下,我有batchsize == 128并且可以预期1000x数据扩充.因此,每个批次实际上将是128*1000的大小,并且我将获得更准确的偏导数估计(并且这是无用的,因为batchsize == 128k是无意义的高).
所以我该怎么做?
Yoshua Benhgio的《学习AI的深度架构》一书提到
我们应该努力开发使用数据来确定最终架构深度的学习算法。
有人会知道到目前为止提出的任何算法来实现这一目标吗?
这个问题不是关于成功的算法的-实际上,目前似乎还没有。这个问题的目的是汇总曾经提出过的每个算法,这样,对该主题感兴趣的任何人都不需要花费数月的时间来找到它们。
到目前为止,我遇到了:
machine-learning neural-network genetic-algorithm deep-learning
我想在Ubuntu上信任安装WordNet-3.0.
当我运行configure脚本时,我得到了:
checking for Tcl configuration... configure: WARNING: Can't find Tcl
configuration definitions
Run Code Online (Sandbox Code Playgroud)
这是一个警告,但仍然在没有创建makefile的情况下停止配置.
所以我下载并安装了tcl8.6.1,然后再次运行configure脚本,但我得到了:
checking for Tcl configuration... found /usr/local/lib/tclConfig.sh
checking for Tk configuration... configure: WARNING: Can't find Tk
configuration definitions
Run Code Online (Sandbox Code Playgroud)
所以我下载并安装了tk8.6.1,然后再次运行configure脚本,但警告消息仍然存在.
我找到tkConfig.sh
了~/Downloads/tk8.6.1/unix/
,所以我将它复制到/ usr/local/lib,再次运行脚本,但我得到了:
checking for Tcl configuration... found /usr/local/lib/tclConfig.sh
checking for Tk configuration... found /usr/local/lib/tkConfig.sh
checking for existence of /usr/local/lib/tclConfig.sh... loading
checking for existence of /usr/local/lib/tkConfig.sh... loading
configure: creating ./config.status
config.status: creating Makefile
config.status: WARNING: 'Makefile.in' seems to …
Run Code Online (Sandbox Code Playgroud) 我没有多少空间了,我很想安装 python 库。
我想知道在安装之前 python 库有多大(只是想知道如果我没有足够的空间来请求多少额外的空间)。
有没有办法做到这一点,例如使用pip
?
有人能告诉我之间的区别:
使用python进行科学编程时,我喜欢将numpy导入为
from numpy import *
Run Code Online (Sandbox Code Playgroud)
因为我一直在使用库函数.
但是,我想在我的代码中明确指出我正在使用的某些函数来自哪些numpy子模块,因此我导入子模块'正常',没有*,例如:
from numpy import *
import random
Run Code Online (Sandbox Code Playgroud)
那么我应该如何调用随机函数?例如,使用rand(),我似乎无法弄清楚何时处于解释器模式:
Python 2.7.6 (default, Jan 12 2014, 08:16:39)
[GCC 4.8.2] on linux2
Type "help", "copyright", "credits" or "license" for more information.
>>> from numpy import *
>>> import random
>>> random.rand(4,3)
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
AttributeError: 'module' object has no attribute 'rand'
>>> numpy.random.rand(4,3)
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
NameError: name 'numpy' is not …
Run Code Online (Sandbox Code Playgroud)