我是数据工程的新手。我正在尝试为大数据项目设置环境。到目前为止,我已经安装了 hadoop、mongodb、hive 和 spark。现在我想尝试模拟以查看 mongodb 和 hadoop 之间的交互。我的 mongodb 中已经有数据了。所以我想将数据迁移到 hadoop hdfs。是否可以?我阅读了很多关于它的解释,但不明白迁移的想法。谁能以简单的方式解释如何做到这一点?因为我是这个领域的初学者。
hadoop hive mongodb hdfs apache-spark
apache-spark ×1
hadoop ×1
hdfs ×1
hive ×1
mongodb ×1