相关疑难解决方法(0)

Django + Postgres +大型时间序列

我正在寻找一个包含大量,大部分不可压缩的时间序列数据的项目,并想知道带有原始SQL的Django + Postgres是否是正确的调用.

我有时间序列数据,每小时约2K对象/小时.这是我每年存储的大约200万行,我想1)能够通过连接切片数据进行分析,2)能够在网上进行基本的概述工作,由Django提供服务.我认为最好的想法是将Django用于对象本身,但是使用原始SQL来处理与之关联的大型时间序列数据.我认为这是一种混合方式; 这可能是一个红旗,但使用完整的ORM进行一系列的数据样本感觉就像是过度杀伤.有没有更好的办法?

python django postgresql heroku bigdata

11
推荐指数
3
解决办法
5527
查看次数

标签 统计

bigdata ×1

django ×1

heroku ×1

postgresql ×1

python ×1