在将复制的 MySQL 数据库重新加载到 Clickhouse 期间,使用“clickhouse-mysql”我遇到了“单个 INSERT 块的分区过多”,并且似乎无法进行。
到目前为止,我尝试过的一些事情:
Clickhouse 表的创建方式与自动创建(--create-table)的方式非常相似,但它确实错过了一些 NULLABLE 类型:
CREATE TABLE DB.DB__main (
`id` Int64,
`user_id` Int64,
`screenname` String,
`created` DateTime,
`tweet_id` Int64,
`tweet` String,
`retweet_count` Nullable(Int32),
`mediastatus` Nullable(String),
`country` Nullable(String),
`countrycode` Nullable(String),
`city` Nullable(String),
`latitude0` Nullable(String),
`longitude0` Nullable(String),
`latitude1` Nullable(String),
`longitude1` Nullable(String),
`latitude2` Nullable(String),
`longitude2` Nullable(String),
`latitude3` Nullable(String),
`longitude3` Nullable(String),
`datetime` DateTime,
`datetime_update` Nullable(DateTime),
`status` Nullable(String),
`div0` Nullable(String),
`div1` Nullable(String),
`div2` Nullable(Int64),
`datasource` Nullable(String)
) ENGINE = ReplacingMergeTree() PARTITION BY toYYYYMM(created) ORDER BY (id, user_id, screenname, created, tweet_id, datetime)
Run Code Online (Sandbox Code Playgroud)
另外,为什么模式会重复 DB.DB__tablename?当我第一次开始使用 Clickhouse 和 clickhouse-mysql --create-table 时,我遇到了奇怪的情况。当开始迁移内容时它停止了,花了一段时间我才意识到表名称从“schema”.“table-name”更改为“schema”.“schema__table-name”。重命名表名后,--migrate-table 可以运行。
max_partitions_per_insert_block -- 限制单个 INSERTed 块中的最大分区数。零意味着无限。如果块包含太多分区,则抛出异常。此设置是一个安全阈值,因为使用大量分区是一种常见的误解。
默认情况下 max_partitions_per_insert_block = 100
因此,PARTITION BY toYYYYMMDD(created)
如果您的插入内容涵盖超过 100 个不同的日期,您的插入将会失败。
PARTITION BY toYYYYMM(created)
如果您的插入内容涵盖超过 100 个不同的月份,您的插入内容将会失败。
Nullable——占用最多两倍的磁盘空间,并且比 notNullable 慢最多两倍。
schema 被重复 DB.DB__tablename —— 问问 clickhouse-mysql 的创建者 Altinity —— 看起来像一个 bug。
归档时间: |
|
查看次数: |
7955 次 |
最近记录: |