j9d*_*9dy 5 hadoop bigdata flume logstash apache-nifi
我正在寻找一种将整个日志文件从边缘节点流式传输到 Hadoop 的方法。总结一下用例:
我想出了以下评价:
我很想得到一些关于选择哪些选项的评论。NiFi/MiNiFi 选项对我来说看起来最有前途 - 并且可以免费使用。
我是否忘记了任何能够解决此用例的广泛使用的工具?
小智 1
我在选择开源大数据解决方案时也经历过类似的痛苦,只是通往罗马的道路有很多。虽然“寻求技术建议已经不是 Stackoverflow 的主题了”,但我还是想分享一下我的观点。
我假设您已经有一个 hadoop 集群来存放日志文件。如果您使用的是企业就绪的发行版,例如 HDP 发行版,请继续选择他们选择的数据摄取解决方案。这种方法总是可以节省您在安装、设置中心管理和监控、在有新版本时实施安全和系统集成方面的大量精力。
您没有提到日志文件到达 HDFS 后您希望如何使用它们。我假设您只想制作精确的副本,即数据摄取中不需要数据清理或数据转换为规范化格式。现在我想知道为什么你没有提到最简单的方法,使用预定的 hdfs 命令将日志文件从边缘节点放入 hdfs 中?
现在我可以分享我参与的一项制作设置。在此生产设置中,日志文件由商业中介系统推送或拉取,该系统进行数据清理、规范化、丰富等。每天的数据量超过 1000 亿条日志记录。负载均衡器后面设置了 6 个边缘节点。日志首先落在其中一个边缘节点上,然后将 hdfs 命令放入 HDFS。Flume最初使用,但由于性能问题而被这种方法取代。(很可能是工程师缺乏优化Flume的经验)。不过值得一提的是,中介系统有一个用于调度摄取脚本的管理 UI。在你的例子中,我会从 PoC 的 cron 作业开始,然后使用 Airflow 等。
希望能帮助到你!并且很高兴知道您的最终选择和实施。
归档时间: |
|
查看次数: |
731 次 |
最近记录: |