小编use*_*618的帖子

Sqoop - 绑定到YARN队列

因此,使用mapreduce v2,您可以使用绑定到某些YARN队列来管理资源和优先级.基本上是通过使用

"hadoop jar /xyz.jar -D mapreduce.job.queuename = QUEUE1/input/output"完美无缺.

在运行sqoop查询时,如何将Yarn队列绑定与Sqoop集成?

即.sqoop import\--connect'jdbc:// server'\ --target-dir \和什么?

hadoop mapreduce sqoop hadoop-yarn sqoop2

6
推荐指数
1
解决办法
3548
查看次数

Windows上的Spark,Linux上的Yarn

我在Linux环境中使用hadoop 2.0运行顶级服务,我的Windows机器上安装了Spark.我可以在我的Windows上本地运行Spark.但我正在尝试将我的Windows-Spark指向Hadoop(Linux)端的Yarn以利用Yarn容器.如何在Windows端设置HADOOP_CONF_DIR,以便它可以指向并查看linux端的/ etc/hadoop/conf.谢谢

hadoop hdfs hadoop-yarn apache-spark pyspark

5
推荐指数
0
解决办法
349
查看次数

如何在hadoop集群之间移动数据

我在VM上运行了2个hadoop集群.如何在这些群集之间移动HDFS数据.我可以scp HDFS上的数据,那些位于数据节点上的元数据呢?谢谢

hadoop

0
推荐指数
1
解决办法
679
查看次数

标签 统计

hadoop ×3

hadoop-yarn ×2

apache-spark ×1

hdfs ×1

mapreduce ×1

pyspark ×1

sqoop ×1

sqoop2 ×1