小编y.s*_*hyk的帖子

在同一环境中使用 conda 和 pip install 是一个坏主意吗?

由于conda install并且pip install在许多情况下基本上做相同的事情,那么最好的选择是什么?有没有人应该pip install只坚持的情况?对称,有没有一种情况conda install只能坚持?有没有办法通过在单个环境中同时使用 conda 和 pip install 来解决问题?

如果这两种方法本质上是相同的并且彼此不矛盾,那么就没有理由只坚持其中一种而不是另一种。

python pip virtualenv conda

29
推荐指数
2
解决办法
1万
查看次数

如何在Tensorflow中使用多个摘要集合?

我有两组不同的摘要.每批收集一个,每个时期收集一个.我如何分别用merge_all_summaries(key='???')这两组收集摘要?手动执行它总是一个选项,但似乎有更好的方法.

我认为它应该如何工作的插图:

      # once per batch 
      tf.scalar_summary("loss", graph.loss)
      tf.scalar_summary("batch_acc", batch_accuracy)
      # once per epoch
      gradients = tf.gradients(graph.loss, [W, D])
      tf.histogram_summary("embedding/W", W, collections='per_epoch')
      tf.histogram_summary("embedding/D", D, collections='per_epoch')

      tf.merge_all_summaries()                # -> (MergeSummary...) :)
      tf.merge_all_summaries(key='per_epoch') # -> NONE              :(
Run Code Online (Sandbox Code Playgroud)

python summary tensorflow

14
推荐指数
1
解决办法
3423
查看次数

如何使用Entity Framework 4.1向实体添加唯一的非主键字段?

我们首先使用Entity Framework 4.1 Code.

我们已经将主键设置为UserId并且需要UserLogin是唯一的用户实体.怎么做到呢?

entity-framework key unique ef-code-first entity-framework-4.1

9
推荐指数
1
解决办法
1万
查看次数

如何在检查点中列出某些变量?

我正在使用自动编码器.我的检查点包含网络的完整状态(即编码器,解码器,优化器等).我想用编码来搞错.因此,我只需要在评估模式下使用网络的解码器部分.

如何从现有检查点中只读取一些特定变量,以便我可以在另一个模型中重用它们的值?

variables state tensorflow

9
推荐指数
2
解决办法
7622
查看次数

如何避免使用会员提供商?

我们目前正在为瘦客户端簿记应用程序构建架构.它应遵循两个主要要求:

  1. 应用程序应具有模块设计.每个模块都可以拥有(并且实际上拥有)自己的角色系统.
  2. 以后的应用程序应适合在不同的机器上使用不同的数据库运行.

我们认为Asp.NET MVC 3是适合这项任务的平台.为了管理应用程序数据,我们选择了最新版本的Entity Framework - 它的批量数据提供程序和Code First功能可以为我们节省大量时间.

我们纠结的部分是用户/角色管理系统.我们应该有一些全局管理部分用于添加用户并授予他们访问模块的权限(只有全局管理员可以将用户添加到系统,不支持"街头人"注册)并且每个模块都有自己的管理部分和自己的管理员和角色.我们已经有数据模型以适当的方式存储我们需要的所有内容,但不知道如何从应用程序正确访问这些数据.

目前,我们看到两种可能的方法来解决此问题:

  1. 根据我们的DAL编写自定义成员资格和角色提供程序.我们团队中的任何人都没有这样做过,所以我们不确定这种方式是否值得.会员提供商不能提供与应用程序需求一样多的灵活性,因此需要一些紧急情况.
  2. 挖掘一些过时的书籍,了解在创建成员资格提供者之前如何组织网站管理系统.

这两种方式都不优雅,对我们来说并不明显,而且选择哪种方式也不是一个简单的问题.我们也相信它可以是其他解决方案(原因可能会影响架构).因此,我们很高兴看到任何与此问题相关的建议.

c# asp.net security membership-provider asp.net-mvc-3

8
推荐指数
1
解决办法
766
查看次数

如何在 Spark 中使用 Dataframes 的关联性?

Spark 2.2.0添加了对数据帧的关联支持。有关这方面的更多信息可以在拉取请求中找到。

MLlib 基于 DataFrame 的 API 中的新算法:

SPARK-19636:基于 DataFrame 的 API 中的关联 (Scala/Java/Python)

然而,完全不清楚如何使用此更改或与以前的版本相比发生了什么变化。

我期待这样的事情:

df_num = spark.read.parquet('/dataframe')
df_cat.printSchema()
df_cat.show()
df_num.corr(col1='features', col2='fail_mode_meas')
Run Code Online (Sandbox Code Playgroud)
df_num = spark.read.parquet('/dataframe')
df_cat.printSchema()
df_cat.show()
df_num.corr(col1='features', col2='fail_mode_meas')
Run Code Online (Sandbox Code Playgroud)

有人可以解释如何利用 Spark 2.2.0 的新功能来实现数据帧中的关联吗?

python correlation apache-spark apache-spark-sql pyspark

8
推荐指数
1
解决办法
2万
查看次数

如何将Tensorflow数据集API与训练和验证集一起使用

手头的简单任务:运行N个时期的训练,在每个时期之后执行计算精确的验证准确性.时期大小可以等于完整训练集或某些预定义的迭代次数.在验证期间,每个验证集输入必须只进行一次评估.

将one_shot_iterators,初始化迭代器和/或句柄混合在一起的最佳方法是什么?

这是我认为它应该如何工作的脚手架:

def build_training_dataset():
    pass

def build_validation_dataset():
    pass

def construct_train_op(dataset):
    pass

def magic(iterator):
    pass

USE_CUSTOM_EPOCH_SIZE = True
CUSTOM_EPOCH_SIZE = 60
MAX_EPOCHS = 100


training_dataset = build_training_dataset()
validation_dataset = build_validation_dataset()


# Magic goes here to build a nice one-instance dataset
dataset = magic(training_dataset, validation_dataset)

train_op = construct_train_op(dataset)

# Run N epochs in which the training dataset is traversed, followed by the
# validation dataset.
with tf.Session() as sess:
    for epoch in MAX_EPOCHS:

        # train
        if USE_CUSTOM_EPOCH_SIZE:
            for _ in range(CUSTOM_EPOCH_SIZE): …
Run Code Online (Sandbox Code Playgroud)

dataset tensorflow

8
推荐指数
1
解决办法
4380
查看次数

Tensorflow数据集API是否比队列慢?

我用数据集API方法替换了项目中的CIFAR-10预处理管道,导致性能下降了大约10-20%.

预备是相当标准的: - 从磁盘读取图像 - 随机/裁剪和翻转 - 随机播放,批量 - 馈送到模型

总的来说,我看到现在的批处理处理速度提高了15%,但每隔一段时间(或者更确切地说,每当我重新初始化数据帧或预期重新洗牌时)批量被长时间(30秒)阻塞,这总计到了更慢的时代-per-epoch处理.

这种行为似乎与内部散列有关.如果我在ds.shuffle(buffer_size = N)中减少N,则延迟较短但比例更频繁.删除shuffle会导致延迟,就像buffer_size设置为数据集大小一样.

在阅读/缓存方面,有人可以解释数据集API的内部逻辑吗?是否有任何理由期望数据集API比手动创建的队列更快地工作?

我正在使用TF 1.3.

performance tensorflow tensorflow-datasets

6
推荐指数
1
解决办法
2349
查看次数

为什么聚集索引是更新未包含在该索引(Ms SQL)中的字段?

我们正在使用MS SQL Server 2005.

嗨,我正在数据库表上执行UPDATE语句.让我们说这个表有下一个列:

int Id PK
int Column1
int Column2
Run Code Online (Sandbox Code Playgroud)

它还有几个索引:

Unique Clustered (Id)
Non-Unique Non-Clustered (Column1)
Non-Unique Non-Clustered (Column2)
Run Code Online (Sandbox Code Playgroud)

我做下一步操作:

 UPDATE  [dbo].[Table] 
    SET Column1 = @Value1
    WHERE Column1 = @Param1
      AND Column2 = @Param2
Run Code Online (Sandbox Code Playgroud)

之后的实际执行计划如下所示:执行计划

其中86%的时间用于更新聚簇索引,其中不包括我刚刚更改的列.

禁用Web应用程序时,此操作应运行数十万次,这意味着它非常关键.

那么,有没有人知道为什么事情会这样发生,是否可以某种方式修复?这个问题有意义吗?如果需要,我准备提供更多信息.

t-sql sql-server indexing clustered-index

5
推荐指数
1
解决办法
1473
查看次数

Pycharm导入无法识别同一模块中的其他文件

比如说,我的项目结构如下:

project_folder:
  __init__.py
  another_folder:
    __init__.py
    main_file.py
    other_file.py
Run Code Online (Sandbox Code Playgroud)

main_file.py包含下一个代码:

import other_file as whatever
Run Code Online (Sandbox Code Playgroud)

PyCharm(PEP8)将此行突出显示为"错误" no module named other_file,并且在任何调用上都没有自动完成功能whatever.this_should_be_autoc_suggested.同时翻译工作得非常好.

这种烦人行为的原因是什么?

import pycharm

5
推荐指数
1
解决办法
1400
查看次数