在集群NiFi中运行Zookeeper的一般建议是什么?使用嵌入式或外部Zookeeper?从头开始所以没有现有的Zookeeper运行....
我以以下方式使用MergeContent来“分批”来自许多ExecuteSQL的传入响应。在MergeContent处理器中,我将“最小条目数”设置为1000,将“最大bin年龄”设置为30秒。然后,我有一个关联属性名称,用于对传入的FlowFiles进行装箱。这似乎按预期工作,但我的问题有两个:
答:这是明智的方法,还是有更好/更有效的方法来做到这一点?也许是ListFile / GetFile / MergeContent的组合,等等。
B.是否存在“最大数量”的最小条目数导致的性能/可伸缩性问题?
我的最终目标是尝试将ExecuteSQL命令产生的许多结果合并到单个文件中,并按其“相关属性名称”进行合并。
我正在尝试使用 Groovy 登录 ExecuteScript 组件。每当我调用 log.info 时,nifi-app.log 都没有写入任何内容,但是当我调用 log.errorit 时,它会写入。是否有一些 log4j 配置或我需要做的其他事情?
使用 Nifi 1.0.x
在我的 test.groovy 脚本中:
log.info("FOO-BAZ-INFO")
=> 什么都没有
log.error("FOO-BAZ-ERROR")
=>
2016-11-15 10:29:24,023 ERROR [Timer-Driven Process Thread-6] o.a.nifi.processors.script.ExecuteScript ExecuteScript[id=6840347a-0158-1000-ebbf-b9af3aefa022] FOO-BAZ-ERROR