我对hadoop很新,所以请原谅这些愚蠢的问题.
我有以下知识Hadoop的最佳用途是大文件,因此在运行mapreduce任务时有助于提高效率.
牢记上述内容我对Flume NG感到有些困惑.假设我正在拖尾日志文件,并且每秒生成日志,当日志获得新行时,它将通过Flume传输到hdfs.
a)这是否意味着flume在我正在追踪的日志文件中记录的每一行上创建一个新文件,或者它是否附加到现有的hdfs文件?
b)首先允许在hdfs中添加?
c)如果b的答案是真的吗?即内容是否经常附加,我应该如何以及何时运行我的mapreduce应用程序?
以上问题可能听起来很愚蠢,但对此问题的答案将受到高度赞赏.
PS:我还没有设置Flume NG或hadoop,只是阅读文章以获得理解以及它如何为我的公司增加价值.