小编CHE*_*SFT的帖子

Azure Cosmos DB:简单计数查询的"请求率很大"

我正在使用带有Mongo适配器的Cosmos DB,通过Ruby mongo驱动程序访问.目前db中有大约2.5M的记录.

查询记录总量时,没有任何问题:

2.2.5 :011 > mongo_collection.count
D, [2017-11-24T11:52:39.796716 #9792] DEBUG -- : MONGODB | XXX.documents.azure.com:10255 | admin.count | STARTED | {"count"=>"xp_events", "query"=>{}}
D, [2017-11-24T11:52:39.954645 #9792] DEBUG -- : MONGODB | XXX.documents.azure.com:10255 | admin.count | SUCCEEDED | 0.15778699999999998s
 => 2565825
Run Code Online (Sandbox Code Playgroud)

但是,当我尝试根据简单的位置计算找到的记录数量时,我遇到了Request rate is large错误:

2.2.5 :014 > mongo_collection.find(some_field: 'some_value').count
D, [2017-11-24T11:56:11.926812 #9792] DEBUG -- : MONGODB | XXX.documents.azure.com:10255 | admin.count | STARTED | {"count"=>"some_table", "query"=>{"some_field"=>"some_value"}}
D, [2017-11-24T11:56:24.629659 #9792] DEBUG -- : MONGODB | XXX.documents.azure.com:10255 | …
Run Code Online (Sandbox Code Playgroud)

azure mongodb azure-cosmosdb

11
推荐指数
1
解决办法
7058
查看次数

如何列出 Azure Databricks 中的所有挂载点?

我试过这个%fs ls dbfs:/mnt,但我想知道这会给我所有的挂载点吗?

scala databricks azure-databricks

9
推荐指数
3
解决办法
8462
查看次数

Azure ARM模板:创建资源组

我们是ARM模板的新手.在模板上工作时,我发现我们必须在部署ARM模板时提供资源组.是否有可能像其他资源一样通过模板创建资源组?

azure azure-rm-template azure-resource-group

7
推荐指数
3
解决办法
4359
查看次数

如何在databricks工作区中使用python获取azure datalake存储中存在的每个文件的最后修改时间?

我试图获取天蓝色数据湖中存在的每个文件的最后修改时间。

文件= dbutils.fs.ls('/mnt/blob')

对于文件中的 fi: print(fi)

输出:-FileInfo(路径='dbfs:/mnt/blob/rule_sheet_recon.xlsx',名称='rule_sheet_recon.xlsx',大小=10843)

在这里我无法获取文件的最后修改时间。有什么办法可以得到这个财产吗?

我尝试下面的 shell 命令来查看属性,但无法将其存储在 python 对象中。

%sh ls -ls /dbfs/mnt/blob/

输出:- 总计 0

0 -rw-r--r-- 1 root root 13577 九月 20 日 10:50 a.txt

0 -rw-r--r-- 1 root root 10843 九月 20 日 10:50 b.txt

python azure azure-data-lake azure-databricks

7
推荐指数
1
解决办法
2万
查看次数

为什么 Azure 创建“DefaultResourceGroup-WEU”资源组和其中的日志分析工作区?

我正在为一个项目设置生产环境/资源组。Azure 不断创建一个名为 DefaultResourceGroup-WEU 的资源组,并在其中放置一个 DefaultWorkspace-bfcb05a5-938f-4336-9e3c-a5963f10acb7-WEU 日志分析工作区。我尝试自己创建一个分析工作区,希望它会停止这样做,但它不起作用。

它使我想要实现的组织变得混乱。除此之外还很烦人。

有人知道 Azure 为什么这样做以及我如何改变这种行为?

azure azure-log-analytics

7
推荐指数
1
解决办法
6803
查看次数

具有多个分区键的 Cosmos DB

我们正在考虑使用单个 Cosmos DB 集合在使用租户 ID 作为分区键多租户环境中保存多种文档类型租户 id路径可能会在每个文档类型中发生变化,因此我正在考虑将分区键暴露给 Cosmos DB 以启用正确的分区/查询。

我注意到 DocumentCollection.PartitionKey 的 Paths 属性是一个集合,因此想知道在创建文档集合期间是否可以传递多个路径以及这可能是什么行为。理想情况下,我希望 Cosmos 扫描这些路径中的每一个,并使用第一个值或值的聚合作为分区键,但找不到任何文档表明这确实是这种行为。

此属性MSDN 文档非常无用,而且相关 文档似乎都没有回答这个问题。有谁知道或以前在集合中使用过多个分区键路径?

明确地说,在创建 DocumentCollection 时,在 PartitionKey.Paths 集合中指定多个分区键时,我正在寻找有关 Cosmos DB 行为和/或直接体验的其他文档的链接。

此问题也已发布在Azure 社区支持论坛中

谢谢,伊恩

azure azure-cosmosdb

6
推荐指数
1
解决办法
5627
查看次数

mongodb spring 连接一夜之间丢失

我正在使用带有 mongoAPI(spring 数据,mongoRepository)的 azure cosmosdb 每天早上,第一个从 mongo 获取数据的请求会导致异常:

后续请求无需执行任何操作即可成功。

知道是什么原因造成的吗?有没有办法让 spring 自动恢复连接而不会请求失败?

谢谢

例外:

org.springframework.data.mongodb.UncategorizedMongoDbException: Exception sending message; nested exception is com.mongodb.MongoSocketWriteException: Exception sending message
        at org.springframework.data.mongodb.core.MongoExceptionTranslator.translateExceptionIfPossible(MongoExceptionTranslator.java:107)
        at org.springframework.data.mongodb.core.MongoTemplate.potentiallyConvertRuntimeException(MongoTemplate.java:2135)
        at org.springframework.data.mongodb.core.MongoTemplate.executeFindMultiInternal(MongoTemplate.java:1978)
        at org.springframework.data.mongodb.core.MongoTemplate.doFind(MongoTemplate.java:1784)
        at org.springframework.data.mongodb.core.MongoTemplate.doFind(MongoTemplate.java:1767)
        at org.springframework.data.mongodb.core.MongoTemplate.find(MongoTemplate.java:641)
        at org.springframework.data.mongodb.repository.query.MongoQueryExecution$CollectionExecution.execute(MongoQueryExecution.java:79)
        at org.springframework.data.mongodb.repository.query.MongoQueryExecution$ResultProcessingExecution.execute(MongoQueryExecution.java:411)
        at org.springframework.data.mongodb.repository.query.AbstractMongoQuery.execute(AbstractMongoQuery.java:94)
        at org.springframework.data.repository.core.support.RepositoryFactorySupport$QueryExecutorMethodInterceptor.doInvoke(RepositoryFactorySupport.java:483)
        at org.springframework.data.repository.core.support.RepositoryFactorySupport$QueryExecutorMethodInterceptor.invoke(RepositoryFactorySupport.java:461)
        at org.springframework.aop.framework.ReflectiveMethodInvocation.proceed(ReflectiveMethodInvocation.java:179)
        at org.springframework.data.projection.DefaultMethodInvokingMethodInterceptor.invoke(DefaultMethodInvokingMethodInterceptor.java:56)
        at org.springframework.aop.framework.ReflectiveMethodInvocation.proceed(ReflectiveMethodInvocation.java:179)
        at org.springframework.aop.interceptor.ExposeInvocationInterceptor.invoke(ExposeInvocationInterceptor.java:92)
        at org.springframework.aop.framework.ReflectiveMethodInvocation.proceed(ReflectiveMethodInvocation.java:179)
        at org.springframework.data.repository.core.support.SurroundingTransactionDetectorMethodInterceptor.invoke(SurroundingTransactionDetectorMethodInterceptor.java:57)
        at org.springframework.aop.framework.ReflectiveMethodInvocation.proceed(ReflectiveMethodInvocation.java:179)
        at org.springframework.aop.framework.JdkDynamicAopProxy.invoke(JdkDynamicAopProxy.java:213)
...
Caused by: com.mongodb.MongoSocketWriteException: Exception sending message
        at com.mongodb.connection.InternalStreamConnection.translateWriteException(InternalStreamConnection.java:465)
        at com.mongodb.connection.InternalStreamConnection.sendMessage(InternalStreamConnection.java:208)
        at com.mongodb.connection.UsageTrackingInternalConnection.sendMessage(UsageTrackingInternalConnection.java:90)
        at com.mongodb.connection.DefaultConnectionPool$PooledConnection.sendMessage(DefaultConnectionPool.java:429)
        at com.mongodb.connection.CommandProtocol.sendMessage(CommandProtocol.java:189) …
Run Code Online (Sandbox Code Playgroud)

azure mongodb spring-data-jpa azure-cosmosdb

6
推荐指数
1
解决办法
2591
查看次数

databricks:检查挂载点是否已经挂载

如何在databricks python中安装之前检查安装点是否已经安装?

dbutils.fs.mount
Run Code Online (Sandbox Code Playgroud)

谢谢

python azure databricks azure-databricks

6
推荐指数
3
解决办法
7515
查看次数

插入 ssms 中的突触 DW

简单的插入代码,但我不断收到语法错误,值行在表中的每一列都有一个值,它只有 3 列,我尝试删除逗号,尝试使用分号,在关闭父级后什么也没尝试,尝试显式声明列名称在值之前对这段简单的代码没有任何作用

插入语句语法错误

sql ssms azure-synapse

6
推荐指数
1
解决办法
5694
查看次数

如何查看Databricks中的所有数据库和表

我想列出 Azure Databricks 中每个数据库中的所有表。

所以我希望输出看起来像这样:

Database | Table_name
Database1 | Table_1
Database1 | Table_2
Database1 | Table_3
Database2 | Table_1
etc..
Run Code Online (Sandbox Code Playgroud)

这就是我现在所拥有的:

from pyspark.sql.types import *

DatabaseDF = spark.sql(f"show databases")
df = spark.sql(f"show Tables FROM {DatabaseDF}")
#df = df.select("databaseName")
#list = [x["databaseName"] for x in df.collect()]

print(DatabaseDF)
display(DatabaseDF)

df = spark.sql(f"show Tables FROM {schemaName}")
df = df.select("TableName")
list = [x["TableName"] for x in df.collect()]

## Iterate through list of schema
for x in list:
###  INPUT Required: Change for target …
Run Code Online (Sandbox Code Playgroud)

python azure pyspark databricks azure-databricks

6
推荐指数
1
解决办法
1万
查看次数