admin 管理员组文章数量: 1184232
遇到问题
遇到的问题
我们的hadoop集群在运作过程中部分节点报错local-dirs are bad
原因
hadoop集群硬盘目录默认的使用阈值是90%
空间不足,目录使用率超过阈值了90%了
解决方式
调整yarn的参数
yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk-percentage
把比例调高到98%
但是这种方式治标不治本,最好还是清理hadoop集群的空间,腾出硬盘空间。
本文标签: 遇到问题
版权声明:本文标题:遇到问题 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://roclinux.cn/p/1699467771a356748.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论