MongoDB 新手,Atlas 新手。我正在尝试设置一个触发器,以便它从名为 的集合中读取所有数据Config。这是我的尝试:
exports = function(changeEvent) {
const mongodb = context.services.get("Cluster0");
const db = mongodb.db("TestDB");
var collection = db.collection("Config");
config_docs = collection.find().toArray();
console.log(JSON.stringify(config_docs));
}
Run Code Online (Sandbox Code Playgroud)
该函数是自动创建的名为 的领域应用程序的一部分Triggers_RealmApp,该应用程序具有Cluster0命名的链接数据源。当我进入 Cluster0 中的集合时,TestDB.Config是集合之一。
一些注意事项:
{}.context.services.get("Cluster0");为其他内容时,它会抛出错误"TestDB"为不存在的数据库或"Config"不存在的集合时,我得到相同的输出;{}在 serverless.yml 中使用以下设置时
custom:
pythonRequirements:
dockerizePip: true
slim: true
zip: true
Run Code Online (Sandbox Code Playgroud)
slim:true并slim:false产生相同的文件大小。我可以采取什么措施来减小 zip 文件的文件大小?
我正在尝试获取 python 代码,它依赖于使用无服务器框架的 aws lambda 函数。按照此处提供的建议减少依赖项大小以符合 250MB lambda 限制。在我的 serverless.yml 文件中,我有以下内容:
provider:
name: aws
runtime: python3.6
plugins:
- serverless-python-requierments
custom:
pythonRequierments:
dockerizePip: true
slim: true
zip: true
functions:
...
Run Code Online (Sandbox Code Playgroud)
我的requierments.txt如下:
xgboost==1.3.3
pandas==1.0.1
numpy == 1.18.5
...
Run Code Online (Sandbox Code Playgroud)
我不断收到以下错误:
Unzipped size must be smaller than 262144000 bytes..
Run Code Online (Sandbox Code Playgroud)
这让我相信我的 requierments.zip 文件太大;详细输出说明uploading service test.zip file to s3 271.17 MB。 …
我在 sagemaker studio 工作,我有一个实例运行一项计算密集型任务:
运行我的任务的内核似乎已达到极限,但实际实例仅使用少量资源。是否发生某种限制?我可以对此进行配置以便利用更多实例吗?
我有一个像这样的 pd 数据框:
df = pd.DataFrame({'val':[0.1,0.2,0.3,None,None],'parent':[None,None,None,0,2]})
parent val
0 NaN 0.1
1 NaN 0.2
2 NaN 0.3
3 0.0 NaN
4 2.0 NaN
Run Code Online (Sandbox Code Playgroud)
其中parent表示熊猫 df 中的索引。我想创建一个具有值或父值的新列。
看起来像这样:
parent val val_full
0 NaN 0.1 0.1
1 NaN 0.2 0.2
2 NaN 0.3 0.3
3 0.0 NaN 0.1
4 2.0 NaN 0.3
Run Code Online (Sandbox Code Playgroud)
这是一个相当大的数据帧(10k+ 行),因此最好使用一些有效的方法。我怎么能不使用类似的东西来做到这一点.iterrows()?