Rah*_*ddy 1 memory hadoop hive hadoop-yarn ambari
我正在运行 hive tez 工作。工作是将数据从一个文本文件格式的表加载到另一个 orc 格式的表中。
我正在使用
INSERT INTO TABLE ORDERREQUEST_ORC
PARTITION(DATE)
SELECT
COLUMN1,
COLUMN2,
COLUMN3,
DATE
FROM ORDERREQUEST_TXT;
Run Code Online (Sandbox Code Playgroud)
当我通过 ambari Web 控制台监控作业时,我看到 YARN 内存使用率为 100%。
你能建议如何保持健康的纱线记忆。
所有三个数据节点的平均负载;
1. top - 17:37:24 up 50 days, 3:47, 4 users, load average: 15.73, 16.43, 13.52
2. top - 17:38:25 up 50 days, 3:48, 2 users, load average: 16.14, 15.19, 12.50
3. top - 17:39:26 up 50 days, 3:49, 1 user, load average: 11.89, 12.54, 10.49
Run Code Online (Sandbox Code Playgroud)
这些是纱线配置
yarn.scheduler.minimum-allocation-mb=5120
yarn.scheduler.maximum-allocation-mb=46080
yarn.nodemanager.resource.memory-mb=46080
Run Code Online (Sandbox Code Playgroud)
仅供参考:- 我的集群配置
Nodes = 4 (1 Master, 3 DN )
memory = 64 GB on each node
Processors = 6 on each node
1 TB on each node (5 Disk * 200 GB)
Run Code Online (Sandbox Code Playgroud)
如何减少纱线使用内存?
您收到错误是因为尚未将集群配置为为每个用户分配最大纱线内存。
请在 Yarn 配置中设置以下属性,为每个作业分配 33% 的最大纱线内存,可以根据您的要求进行更改。
更改自:
yarn.scheduler.capacity.root.default.user-limit-factor=1
Run Code Online (Sandbox Code Playgroud)
到:
yarn.scheduler.capacity.root.default.user-limit-factor=0.33
Run Code Online (Sandbox Code Playgroud)
如果您需要更多信息,请参阅以下链接 https://analyticsanvil.wordpress.com/2015/08/16/managing-yarn-memory-with-multiple-hive-users/