我正在使用带有Mongo适配器的Cosmos DB,通过Ruby mongo驱动程序访问.目前db中有大约2.5M的记录.
查询记录总量时,没有任何问题:
2.2.5 :011 > mongo_collection.count
D, [2017-11-24T11:52:39.796716 #9792] DEBUG -- : MONGODB | XXX.documents.azure.com:10255 | admin.count | STARTED | {"count"=>"xp_events", "query"=>{}}
D, [2017-11-24T11:52:39.954645 #9792] DEBUG -- : MONGODB | XXX.documents.azure.com:10255 | admin.count | SUCCEEDED | 0.15778699999999998s
=> 2565825
Run Code Online (Sandbox Code Playgroud)
但是,当我尝试根据简单的位置计算找到的记录数量时,我遇到了Request rate is large错误:
2.2.5 :014 > mongo_collection.find(some_field: 'some_value').count
D, [2017-11-24T11:56:11.926812 #9792] DEBUG -- : MONGODB | XXX.documents.azure.com:10255 | admin.count | STARTED | {"count"=>"some_table", "query"=>{"some_field"=>"some_value"}}
D, [2017-11-24T11:56:24.629659 #9792] DEBUG -- : MONGODB | XXX.documents.azure.com:10255 | …Run Code Online (Sandbox Code Playgroud) 我试过这个%fs ls dbfs:/mnt,但我想知道这会给我所有的挂载点吗?
我们是ARM模板的新手.在模板上工作时,我发现我们必须在部署ARM模板时提供资源组.是否有可能像其他资源一样通过模板创建资源组?
我试图获取天蓝色数据湖中存在的每个文件的最后修改时间。
文件= dbutils.fs.ls('/mnt/blob')
对于文件中的 fi: print(fi)
输出:-FileInfo(路径='dbfs:/mnt/blob/rule_sheet_recon.xlsx',名称='rule_sheet_recon.xlsx',大小=10843)
在这里我无法获取文件的最后修改时间。有什么办法可以得到这个财产吗?
我尝试下面的 shell 命令来查看属性,但无法将其存储在 python 对象中。
%sh ls -ls /dbfs/mnt/blob/
输出:- 总计 0
0 -rw-r--r-- 1 root root 13577 九月 20 日 10:50 a.txt
0 -rw-r--r-- 1 root root 10843 九月 20 日 10:50 b.txt
我正在为一个项目设置生产环境/资源组。Azure 不断创建一个名为 DefaultResourceGroup-WEU 的资源组,并在其中放置一个 DefaultWorkspace-bfcb05a5-938f-4336-9e3c-a5963f10acb7-WEU 日志分析工作区。我尝试自己创建一个分析工作区,希望它会停止这样做,但它不起作用。
它使我想要实现的组织变得混乱。除此之外还很烦人。
有人知道 Azure 为什么这样做以及我如何改变这种行为?
我们正在考虑使用单个 Cosmos DB 集合在使用租户 ID 作为分区键的多租户环境中保存多种文档类型。租户 id的路径可能会在每个文档类型中发生变化,因此我正在考虑将分区键暴露给 Cosmos DB 以启用正确的分区/查询。
我注意到 DocumentCollection.PartitionKey 的 Paths 属性是一个集合,因此想知道在创建文档集合期间是否可以传递多个路径以及这可能是什么行为。理想情况下,我希望 Cosmos 扫描这些路径中的每一个,并使用第一个值或值的聚合作为分区键,但找不到任何文档表明这确实是这种行为。
此属性的MSDN 文档非常无用,而且相关 文档似乎都没有回答这个问题。有谁知道或以前在集合中使用过多个分区键路径?
明确地说,在创建 DocumentCollection 时,在 PartitionKey.Paths 集合中指定多个分区键时,我正在寻找有关 Cosmos DB 行为和/或直接体验的其他文档的链接。
此问题也已发布在Azure 社区支持论坛中。
谢谢,伊恩
我正在使用带有 mongoAPI(spring 数据,mongoRepository)的 azure cosmosdb 每天早上,第一个从 mongo 获取数据的请求会导致异常:
后续请求无需执行任何操作即可成功。
知道是什么原因造成的吗?有没有办法让 spring 自动恢复连接而不会请求失败?
谢谢
例外:
org.springframework.data.mongodb.UncategorizedMongoDbException: Exception sending message; nested exception is com.mongodb.MongoSocketWriteException: Exception sending message
at org.springframework.data.mongodb.core.MongoExceptionTranslator.translateExceptionIfPossible(MongoExceptionTranslator.java:107)
at org.springframework.data.mongodb.core.MongoTemplate.potentiallyConvertRuntimeException(MongoTemplate.java:2135)
at org.springframework.data.mongodb.core.MongoTemplate.executeFindMultiInternal(MongoTemplate.java:1978)
at org.springframework.data.mongodb.core.MongoTemplate.doFind(MongoTemplate.java:1784)
at org.springframework.data.mongodb.core.MongoTemplate.doFind(MongoTemplate.java:1767)
at org.springframework.data.mongodb.core.MongoTemplate.find(MongoTemplate.java:641)
at org.springframework.data.mongodb.repository.query.MongoQueryExecution$CollectionExecution.execute(MongoQueryExecution.java:79)
at org.springframework.data.mongodb.repository.query.MongoQueryExecution$ResultProcessingExecution.execute(MongoQueryExecution.java:411)
at org.springframework.data.mongodb.repository.query.AbstractMongoQuery.execute(AbstractMongoQuery.java:94)
at org.springframework.data.repository.core.support.RepositoryFactorySupport$QueryExecutorMethodInterceptor.doInvoke(RepositoryFactorySupport.java:483)
at org.springframework.data.repository.core.support.RepositoryFactorySupport$QueryExecutorMethodInterceptor.invoke(RepositoryFactorySupport.java:461)
at org.springframework.aop.framework.ReflectiveMethodInvocation.proceed(ReflectiveMethodInvocation.java:179)
at org.springframework.data.projection.DefaultMethodInvokingMethodInterceptor.invoke(DefaultMethodInvokingMethodInterceptor.java:56)
at org.springframework.aop.framework.ReflectiveMethodInvocation.proceed(ReflectiveMethodInvocation.java:179)
at org.springframework.aop.interceptor.ExposeInvocationInterceptor.invoke(ExposeInvocationInterceptor.java:92)
at org.springframework.aop.framework.ReflectiveMethodInvocation.proceed(ReflectiveMethodInvocation.java:179)
at org.springframework.data.repository.core.support.SurroundingTransactionDetectorMethodInterceptor.invoke(SurroundingTransactionDetectorMethodInterceptor.java:57)
at org.springframework.aop.framework.ReflectiveMethodInvocation.proceed(ReflectiveMethodInvocation.java:179)
at org.springframework.aop.framework.JdkDynamicAopProxy.invoke(JdkDynamicAopProxy.java:213)
...
Caused by: com.mongodb.MongoSocketWriteException: Exception sending message
at com.mongodb.connection.InternalStreamConnection.translateWriteException(InternalStreamConnection.java:465)
at com.mongodb.connection.InternalStreamConnection.sendMessage(InternalStreamConnection.java:208)
at com.mongodb.connection.UsageTrackingInternalConnection.sendMessage(UsageTrackingInternalConnection.java:90)
at com.mongodb.connection.DefaultConnectionPool$PooledConnection.sendMessage(DefaultConnectionPool.java:429)
at com.mongodb.connection.CommandProtocol.sendMessage(CommandProtocol.java:189) …Run Code Online (Sandbox Code Playgroud) 我想列出 Azure Databricks 中每个数据库中的所有表。
所以我希望输出看起来像这样:
Database | Table_name
Database1 | Table_1
Database1 | Table_2
Database1 | Table_3
Database2 | Table_1
etc..
Run Code Online (Sandbox Code Playgroud)
这就是我现在所拥有的:
from pyspark.sql.types import *
DatabaseDF = spark.sql(f"show databases")
df = spark.sql(f"show Tables FROM {DatabaseDF}")
#df = df.select("databaseName")
#list = [x["databaseName"] for x in df.collect()]
print(DatabaseDF)
display(DatabaseDF)
df = spark.sql(f"show Tables FROM {schemaName}")
df = df.select("TableName")
list = [x["TableName"] for x in df.collect()]
## Iterate through list of schema
for x in list:
### INPUT Required: Change for target …Run Code Online (Sandbox Code Playgroud)