admin 管理员组

文章数量: 1184232

遇到问题

遇到的问题

我们的hadoop集群在运作过程中部分节点报错local-dirs are bad

原因

hadoop集群硬盘目录默认的使用阈值是90%
空间不足,目录使用率超过阈值了90%了

解决方式

调整yarn的参数
yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk-percentage
把比例调高到98%

但是这种方式治标不治本,最好还是清理hadoop集群的空间,腾出硬盘空间。

本文标签: 遇到问题