将函数应用于Pandas索引的最佳方法是什么DataFrame
?目前我正在使用这种冗长的方法:
pd.DataFrame({"Month": df.reset_index().Date.apply(foo)})
Run Code Online (Sandbox Code Playgroud)
其中Date
是索引foo
的名称,是我正在应用的函数的名称.
有没有简单的方法来验证docker-compose文件(docker-compose.yml
又名fig.yml
)的语法等,而不必正确运行docker?
我正在尝试向我的构建/测试管道添加快速检查以验证我的撰写文件.
我在我的Django模型中添加了一个新的,不可为空的字段,并尝试使用迁移来部署该更改.如何将现有模型的默认值设置为这些模型的某些函数而不是常量?
举一个例子,假设我之前有一个created_on
字段,我刚刚添加了一个updated_on
字段,其值我想先设置为模型created_on
.我如何在迁移中执行此操作?
这就是我想要开始的:
migrations.AddField(
model_name='series',
name='updated_as',
field=models.DateTimeField(default=????, auto_now=True),
preserve_default=False,
),
Run Code Online (Sandbox Code Playgroud) 如果我的模型看起来像:
class Publisher(models.Model):
pass
class Book(models.Model):
publisher = models.ForeignKey(Publisher)
class Page(models.Model):
book = models.ForeignKey(Book)
Run Code Online (Sandbox Code Playgroud)
我想得到Publisher
我的查询集Publisher.object.all()
.如果那时想确保预取我可以做:
Publisher.objects.all().prefetch_related('book_set')`
Run Code Online (Sandbox Code Playgroud)
我的问题是:
select_related
或必须使用预取prefetch_related
?page_set
?这不起作用:Publisher.objects.all().prefetch_related('book_set', 'book_set_page_set')
我目前有一个DataFrame
布局:
Jan Feb Mar Apr ...
2001 1 12 12 19
2002 9 ...
2003 ...
Run Code Online (Sandbox Code Playgroud)
我想"取消"数据看起来像:
Date Value
Jan 2001 1
Feb 2001 1
Mar 2001 12
...
Jan 2002 9
Run Code Online (Sandbox Code Playgroud)
使用pandas/NumPy实现此目的的最佳方法是什么?
目前median
,Pandas的GroupBy
对象上有一种方法.
有没有办法在分组上计算任意percentile
(参见:http://docs.scipy.org/doc/numpy-dev/reference/generated/numpy.percentile.html)?
中位数将是百分位数的计算q=50
.
我试图使用migrations.RunSQL
Django迁移来运行一些任意的SQL代码.我想仅针对某些db后端运行此迁移(例如仅针对postgres).
我想使用这样的东西,但我没有看到类中的数据库连接信息Migration
.
在Django中(当使用django.contrib.auth时)我可以添加Group
到另一个Group
吗?即,Group
是另一个成员Group
?
如果是这样,我该怎么做?我将User
s 添加到一个Group
使用user_set
,但从我收集的默认Group
模型没有多少到它自己.
文档:https://docs.djangoproject.com/en/1.7/topics/auth/default/#groups
如果我打算部署一个Django + Postgres网站,我想对PaaS这样做,那么Heroku和Elastic Beanstalk将为我提供哪些主要区别?
有哪些功能但另一个没有?在两个平台上部署和维护站点的经验如何比较?
我想使用多个GPU来利用数据并行性来训练我的Tensorflow模型.
我目前正在使用以下方法培训Tensorflow模型:
x_ = tf.placeholder(...)
y_ = tf.placeholder(...)
y = model(x_)
loss = tf.losses.sparse_softmax_cross_entropy(labels=y_, logits=y)
optimizer = tf.train.AdamOptimizer()
train_op = tf.contrib.training.create_train_op(loss, optimizer)
for i in epochs:
for b in data:
_ = sess.run(train_op, feed_dict={x_: b.x, y_: b.y})
Run Code Online (Sandbox Code Playgroud)
我想利用多个GPU以数据并行化的方式训练这个模型.即我想将我的批次分成两半并在我的两个GPU之一上运行每一批.
cifar10_multi_gpu_train似乎提供了一个很好的例子,可以创建从多个GPU上运行的图形中获取的损失,但我没有找到一个很好的例子,在使用时进行这种训练,feed_dict
而placeholder
不是数据加载器队列.
UPDATE
似乎:https://timsainb.github.io/multi-gpu-vae-gan-in-tensorflow.html可能会提供一个很好的例子.他们似乎average_gradients
从中cifar10_multi_gpu_train.py
创建了一个占位符,然后为每个GPU切片.我想你也需要分割create_train_op
为三个阶段:compute_gradients
,average_gradients
然后apply_gradients
.