小编ytr*_*ewq的帖子

PyTorch:传递numpy数组进行权重初始化

我想用np数组初始化RNN的参数。

在以下示例中,我想传递w给的参数rnn。我知道pytorch提供了许多初始化方法,例如Xavier,uniform等,但是是否可以通过传递numpy数组来初始化参数?

import numpy as np
import torch as nn
rng = np.random.RandomState(313)
w = rng.randn(input_size, hidden_size).astype(np.float32)

rnn = nn.RNN(input_size, hidden_size, num_layers)
Run Code Online (Sandbox Code Playgroud)

python numpy initialization pytorch rnn

7
推荐指数
1
解决办法
2842
查看次数

tweepy (python):超出速率限制代码 88

我正在用 tweepy 编写一个 Twitter 应用程序,它通过查看 in_reply_to_status_ID 来爬取推文。一切正常,直到速率限制,几分钟后,我必须再等 15 分钟左右。

这很奇怪,因为直到几个月前 API 1.0 被弃用之前我使用了几乎相同的代码,而且它没有速率限制问题。

有没有已知的方法可以摆脱,或者至少提高速率限制?或者有解决方法吗?

似乎很多人都遇到了这个问题,但找不到明确的解决方案..

如果您能提供帮助,我将不胜感激。

auth1 = tweepy.auth.OAuthHandler('consumer_token','consumer_secret')
auth1.set_access_token('access_token','access_secret')
api=tweepy.API(auth1)

def hasParent(s):
    #return true if s is not None, i.e., s is an in_reply_to_status_id numbe 
....

while hasParent(ps):
    try:
        parent=api.get_status(ps)
    except tweepy.error.TweepError:
        print 'tweeperror'
        break
    newparent = parent.in_reply_to_status_id
        ......
    ps=newparent
Run Code Online (Sandbox Code Playgroud)

python twitter tweepy

6
推荐指数
1
解决办法
4857
查看次数

如何在数据库中使用Python?

我写了一个Python程序来处理非常大的数据.在处理数据时,它会将处理后的数据放入一个数组中,该数组很容易增长到数百兆字节甚至超过千兆字节.

我这样设置的原因是因为Python需要不断访问数组中的数据.由于数组变得越来越大,因此该过程很容易出错并且非常慢.

有没有办法让类似数组的数据库存储在不同的文件或数据库模块上并根据需要访问它?

也许这是一项非常基本的任务,但我不知道.

python database

5
推荐指数
1
解决办法
133
查看次数

Google Inceptionism:按类获取图片

在着名的Google Inceptionism文章 http://googleresearch.blogspot.jp/2015/06/inceptionism-going-deeper-into-neural.html中, 它们显示了为每个类获取的图像,例如香蕉或蚂蚁.我想对其他数据集做同样的事情.

文章确实描述了它是如何获得的,但我觉得解释是不够的.

有一个相关的代码 https://github.com/google/deepdream/blob/master/dream.ipynb

但它的作用是产生一个随机的梦幻图像,而不是指定一个类并了解它在网络中的样子,如上文所示.

任何人都可以提供更具体的概述,或者如何为特定类生成图像的代码/教程?(最好假设caffe框架)

computer-vision neural-network deep-learning caffe

5
推荐指数
1
解决办法
196
查看次数

caffe:protobuf版本出错

我以前安装了caffe和Fast-RCNN,所以我应该拥有所有必需的库和依赖项.

我需要再次为使用Caffe的另一个存储库(https://github.com/ronghanghu/natural-language-object-retrieval)安装它.

我跑的时候

make all
Run Code Online (Sandbox Code Playgroud)

它给了我以下错误:

CXX .build_release/src/caffe/proto/caffe.pb.cc
In file included from .build_release/src/caffe/proto/caffe.pb.cc:5:0:
.build_release/src/caffe/proto/caffe.pb.h:12:2: error: #error This file was generated by a newer version of protoc which is
#error This file was generated by a newer version of protoc which is
^
.build_release/src/caffe/proto/caffe.pb.h:13:2: error: #error incompatible with your Protocol Buffer headers. Please update
#error incompatible with your Protocol Buffer headers.  Please update
^
.build_release/src/caffe/proto/caffe.pb.h:14:2: error: #error your headers.
#error your headers.
^
In file included from .build_release/src/caffe/proto/caffe.pb.cc:5:0:
.build_release/src/caffe/proto/caffe.pb.h:26:55: …
Run Code Online (Sandbox Code Playgroud)

protocol-buffers computer-vision neural-network deep-learning caffe

5
推荐指数
1
解决办法
9978
查看次数

腌制图像对象?

我是一个完全的泡菜新手,我有一堆(约100,000)图像需要被腌制。

它们首先作为图像对象加载,然后转换为数据,如下所示:

image = {
    'pixels': im.tostring(),
    'size': im.size,
    'mode': im.mode,
}
Run Code Online (Sandbox Code Playgroud)

现在如何将它们腌制到一个pkl文件中?

python pickle

4
推荐指数
1
解决办法
1万
查看次数

cPickle非常大量的数据

我有大约80万个RGBx 256x256的图像,超过7GB.

我想将它们用作卷积神经网络中的训练数据,并希望将它们与标签一起放在cPickle文件中.

现在,这需要占用大量内存,因为它需要与我的硬盘内存交换,并且几乎消耗掉所有内存.

这是个坏主意吗?

在不引起太多内存问题的情况下,加载到CNN或腌制它们的更聪明/更实用的方法是什么?

这就是代码的样子

import numpy as np
import cPickle
from PIL import Image
import sys,os

pixels = []
labels = []
traindata = []
data=[]


for subdir, dirs, files in os.walk('images'):
        curdir=''
        for file in files:
                if file.endswith(".jpg"):
                        floc=str(subdir)+'/'+str(file)
                        im= Image.open(floc)
                        pix=np.array(im.getdata())
                        pixels.append(pix)
                        labels.append(1)
pixels=np.array(pixels)
labels=np.array(labels)
traindata.append(pixels)
traindata.append(labels)
traindata=np.array(traindata)
.....# do the same for validation and test data
.....# put all data and labels into 'data' array
cPickle.dump(data,open('data.pkl','wb'))
Run Code Online (Sandbox Code Playgroud)

python pickle convolution neural-network

3
推荐指数
1
解决办法
1226
查看次数

如何处理 .git 目录?

我有一个 .git 目录供我处理,据说包含要运行的文件和数据。

我只看到一堆目录(分支、挂钩、信息、对象、引用)和一些文件(配置、描述、HEAD),但不知道如何处理它们。

我假设我应该以某种方式将它与 GitHub 链接,但我不知道如何链接。

git

3
推荐指数
1
解决办法
3959
查看次数

Python re.sub用1替换3个或更多相同的字符

我正在尝试查找重复3次或更多次的字符,例如我想要使用以下字符串:

('aaa','buuuuut','oddddddddd')

并且仅用一个替换所有出现的三个或更多字母:

('a','but','od').

我试过跟随代码

s=re.sub(r'(\w)\3*',r'(\w)',s)
Run Code Online (Sandbox Code Playgroud)

但它会导致编译错误.

我需要使用什么正则表达式?

python regex

2
推荐指数
1
解决办法
1867
查看次数

python:在文件中搜索

我有两个文本文件,都是大约1M行.我们称它们为f1和f2.

对于f1中的每一行,我需要在f2中找到行的索引,其中f1中的行是f2中行的子串.由于我需要为f1的所有行执行此操作,因此使用嵌套for循环的时间过于昂贵,我想知道是否有可以显着减少时间的变通方法.

提前感谢您的帮助.

python search

2
推荐指数
1
解决办法
116
查看次数

在咖啡上使用VGG进行微调

我正在复制http://caffe.berkeleyvision.org/gathered/examples/finetune_flickr_style.html中的步骤

我想将网络更改为VGG模型,该模型可在http://www.robots.ox.ac.uk/~vgg/software/very_deep/caffe/VGG_ILSVRC_16_layers.caffemodel获得 .

只需将模型参数替换为以下内容就足够了吗?

./build/tools/caffe train -solver models/finetune_flickr_style/solver.prototxt -weights VGG_ISLVRC_16_layers.caffemodel -gpu 0
Run Code Online (Sandbox Code Playgroud)

或者我是否需要调整学习率,迭代,即它是否附带单独的原型文件?

computer-vision neural-network deep-learning caffe vgg-net

2
推荐指数
1
解决办法
8487
查看次数

Python:函数参数类型设置返回语法错误

我有一个包含函数参数类型声明的 python 脚本,如下所示:

def dump_var(v: Variable, name: str = None):
Run Code Online (Sandbox Code Playgroud)

据我所知,这是一种为函数设置输入参数类型的有效语法,但它返回一个

SyntaxError: invalid syntax
Run Code Online (Sandbox Code Playgroud)

可能有什么问题?

python types arguments function python-2.7

2
推荐指数
1
解决办法
5859
查看次数