我可以使用 Flink 的文件系统连接器作为查找表吗?

dee*_*lay 1 apache-flink flink-streaming flink-sql

Yarn 上的 Flink 1.13.2 (Flink SQL)。

\n

有点困惑 - 我发现了两个(据我所知)不同规格的文件系统连接器(Ververica.com 与 ci.apache.org):

\n
    \n
  1. https://ci.apache.org/projects/flink/flink-docs-master/docs/connectors/table/overview/#supported-connectors \xe2\x80\x94 文件系统是“有界和无界扫描、查找

    \n
  2. \n
  3. https://docs.ververica.com/user_guide/sql_development/connectors.html#packaged-connectors \xe2\x80\x94 仅 JDBC 标记为可用于查找。

    \n
  4. \n
\n

我可以使用文件系统连接器 (csv) 创建查找(维度)表来丰富 Kafka 事件表吗?如果是的话——如何使用 Flink SQL?

\n

(我尝试过简单的左连接FOR SYSTEM_TIME AS OF a.event_datetime- 它在具有少量 Kafka 事件的测试环境中有效,但在生产中我收到GC overhead limit exceeded错误。我猜这是因为没有将小型 csv 表广播到工作节点。在 Spark 中,我曾经使用相关提示来解决这些类型问题。)

\n

Mar*_*ser 5

文件系统连接器不应用作查找,因为查找访问需要索引访问。我们应该为此更新文档。