具有BigTable连接的BigQuery,无法执行任何查询

Kri*_*ris 9 google-bigquery google-cloud-platform google-cloud-bigtable

我想基于BigTable中的数据生成一些报告。为此,我想创建一个查询,该查询将从BigTable中获取最新数据并将其传递到Data Studio报告中。现在的问题是,当我在BigQuery中创建BigTable连接时,即使在空表上也无法执行任何查询。我通过以下方式为BigQuery创建类型:

bq mk \
--external_table_definition=gs://somebucket/big-table-definition.json \
datareportingdataset.datareportingtable
Run Code Online (Sandbox Code Playgroud)

并且命令成功执行。我的big-table-definition.json样子如下:

{
    "sourceFormat": "BIGTABLE",
    "sourceUris": [
        "https://googleapis.com/bigtable/projects/playground-2/instances/data-reporting/tables/data-reporting-table"
    ],
    "bigtableOptions": {
        "readRowkeyAsString": "true",
        "columnFamilies" : [
            {
                "familyId": "cf1",
                "onlyReadLatest": "true",
                "columns": [
                    {
                        "qualifierString": "temp",
                        "type": "STRING"
                    },
                    {
                    //the rest of the columns
                ]
            }
        ]
    }
}
Run Code Online (Sandbox Code Playgroud)

执行简单select *查询时的错误如下所示:

Error while reading table: datareportingdataset.datareportingtable, error message: Error detected while parsing row starting at position: 2. Error: Data between close double quote (") and field separator.
Run Code Online (Sandbox Code Playgroud)

首先,我怀疑BigTable中有一些数据,但是当我从那里删除所有内容时,仍然会发生错误。我发现它必须与json文件本身有关,因为当我将“ sourceFormats”向下移动几行时,报告的错误更改位置。我在这里做错了什么?

Chr*_*s32 1

刚刚重现了您的案例并发现了完全相同的错误。在我看来,当您运行 bq mk 命令时,它根本没有提取任何数据。

作为解决方案,我建议您运行Dataflow 作业,将数据作为 .avro 文件提取到 Cloud Storage,然后将数据导入 Bigquery 中的数据集。