干货日志如何使用命令行解析参数(日志查看聚合干货参数)「日志查看指令」

点击卡片“大数据实战演练”,回复“资料”可领取独家整理的学习资料。

录有《Ambari 自定义服务集成视频十八讲》,后续会继续录制《Ambari 二次开发等相关经验分享》。
\" data-from=\"0\">
yarn 相关文章:
☞ hadoop之yarn命令详解
☞ hadoop之yarn详解(基础架构篇)
版本:yarn:2.6.0+cdh5.11.0一、前言对于从事大数据相关工作的朋友来说,在平时应该会跟 yarn 打过不少交道。
像 MapReduce on yarn,Spark on yarn,Flink on yarn 等都是需要将应用运行在 yarn 上面的。
但是对于应用运行日志的查看,yarn 却不像寻常服务那样方便,确实是有一些门槛的。
而今天,我们就来好好梳理运行在 yarn 上面的应用日志相关参数及查看方式,最后以查看 Flink on yarn 日志示例。
二、作业本地日志Container 日志包含 ApplicationMaster 日志和普通 Task 日志等信息,由配置 yarn.nodemanager.log-dirs 管理,这个是应用的本地(nodemanager节点)日志,在名为由于作业在 Container 里面运行,应用会随机调度在某一 NodeManager 节点,假如 yarn.nodemanager.log-dirs 配置了多个路径。
那么查看某应用日志,就比较繁琐了,你需要先确定 NodeManager 节点,然后找到日志路径,如果日志路径配置多的话,寻找日志比较困难。
三、日志聚合为了解决以上痛点,yarn 为了方便用户,还支持开启日志聚合功能,设置 yarn.log-aggregation-enable 为 true ,默认为 false 。
日志聚合是 yarn 提供的日志中央化管理功能,收集每个容器的日志并将这些日志移动到文件系统中,比如 HDFS 上,方便用户查看日志。
可能大部分朋友,都会通过执行 yarn logs -applicationId Container−Id的目录下有该Container生成的文件err、log和out文件。
由于作业在Container里面运行,应用会随机调度在某一NodeManager节点,假如yarn.nodemanager.log−dirs配置了多个路径。
那么查看某应用日志,就比较繁琐了,你需要先确定NodeManager节点,然后找到日志路径,如果日志路径配置多的话,寻找日志比较困难。
¨K4K为了解决以上痛点,yarn为了方便用户,还支持开启日志聚合功能,设置∗∗yarn.log−aggregation−enable∗∗为true,默认为false。
日志聚合是yarn提供的日志中央化管理功能,收集每个容器的日志并将这些日志移动到文件系统中,比如HDFS上,方便用户查看日志。
可能大部分朋友,都会通过执行yarnlogs−applicationId{applicationId} 来查看应用日志。
yarn logs -applicationId 命令查看的其实就是聚合后的应用日志,也就是 HDFS 上面的日志,日志目录可由 yarn-site.xml 文件参数配置:yarn.nodemanager.remote-app-log-dir:日志聚合的地址,默认为 /tmp/logsyarn.nodemanager.remote-app-log-dir-suffix:日志聚合的地址后缀,默认为 logs结合上述两个参数,默认情况下,远程日志目录将在 /tmp/logs/{user} 为 yarn 应用执行用户。
日志聚合开启后,运行的应用日志是什么时候触发聚合操作呢?运行中还是结束后?我们继续往下看:我们又找到了 yarn.nodemanager.log-aggregation.roll-monitoring-interval-seconds 配置,该配置表示:NodeManager 上传日志文件的频率。
默认值为 -1。
默认情况下,日志将在应用程序完成时上传。
通过设置该配置,可以在应用程序运行时定期上传日志。
可以设置的最小滚动间隔秒数为 3600。
yarn 更多配置参数可参考:https://hadoop.apache.org/docs/r2.6.0/hadoop-yarn/hadoop-yarn-common/yarn-default.xml四、日志清理1、本地日志yarn.nodemanager.log.retain-seconds: 保存在本地节点的日志的留存时间, 默认值是 10800,单位:秒,即 3 小时。
当开启日志聚合功能后,该配置无效。
yarn.nodemanager.delete.debug-delay-sec:默认值为 0,表示在开启日志聚合功能的情况下,应用完成后,进行日志聚合,然后 NodeManager 的 DeletionService 立即删除应用的本地日志。
如果想查看应用日志,可以将该属性值设置得足够大(例如,设置为 600 = 10 分钟)以允许查看这些日志。
yarn.nodemanager.delete.thread-count: NodeManager 用于日志清理的线程数,默认值为 4。
2、远程聚合日志yarn.log-aggregation.retain-seconds: 在删除聚合日志之前保留聚合日志的时间。
默认值是 -1,表示永久不删除日志。
这意味着应用程序的日志聚合所占的空间会不断的增长,从而造成 HDFS 集群的资源过度使用。
yarn.log-aggregation.retain-check-interval-seconds: 聚合日志保存检查间隔时间,确定多长时间去检查一次聚合日志的留存情况以执行日志的删除。
如果设置为 0 或者负值,那这个值就会用聚合日志保存时间的 1/10 来自动配置,默认值是 -1。
五、查看 Flink on Yarn 日志现在以在 yarn 上查看 flink 应用日志为例,由于flink应用是实时运行的,所以如果不配置 yarn.nodemanager.log-aggregation.roll-monitoring-interval-seconds 的话,则不会将日志聚合到 HDFS 上,那就需要我们去查看 Container 日志。
1、yarn application -list
2、yarn applicationattempt -list <ApplicationId>
3、yarn container -list <Application Attempt Id>
4、查看对应 Container 日志上述列表中,Container 启动最早的那个编号是 jobmanager,其余的是 taskmanager 。
根据 yarn 配置:yarn.nodemanager.log-dirs,路径为:/data/yarn/container-logs。
前往对应 Host 节点,查看 /data/yarn/container-logs/{Container-Id} 下面的容器日志。
jobmanager.log 为 flink任务管理日志。
taskmanager.log 为 flink任务工作日志。
当然,也有朋友会问,我在 yarn resourceManager UI 上面也可以看到应用日志啊。
是的,能看到,但我还是感觉命令行简单,并且你也不能保证每个项目的 yarn 环境,都能访问外网是吧。
所以我上面分享的查到对应的 Container 日志命令,是很有必要掌握的。
六、总结1、本篇文章,以 yarn 2.6.0 版本为例,主要讲解了 yarn 应用日志相关,分为本地 Container 日志和聚合日志。
2、接下来又讲解了 yarn 应用日志的相关参数,比如:日志存储目录、日志聚合相关参数、日志清理相关参数等3、最后,就以查看 flink on yarn 日志为例,梳理了一下用 yarn 命令如何定位 Container 日志所在主机,如何用命令来查看日志。
当然最后也建议大家,尽量学会以命令行的方式查看日志,因为不是每个项目环境的 yarn 都留有外网,而命令行则是我们程序员最后的倔强。
---------- END ----------
hadoop之yarn命令详解
hadoop之yarn详解(基础架构篇)
Elasticsearch 平滑下线节点实践指南

\" data-recommend-article-content-url=\"http://mp.weixin.qq.com/s?__biz=MzU3MTc1NzU0Mg==&mid=2247490552&idx=1&sn=bcad26a2016688d8445244760266ef20&chksm=fcda1d71cbad946717f2559a0a19efc306433d6cbdf42db15913899417da2b3f60fb1b58ba7a#rd\">
我有好几种办法让你访问 github 速度起飞,不信进来看。

Ambari 前端之 ambari-web 模块概述
最后说一句(求关注,别白嫖我)扫一扫,我们的故事就开始了。
另外公众号改变了推送规则,大家看文章不要忘记点击最下方的在看,点赞按钮,这样微信自动识别为常看公众号,否则很可能推送的文章可能淹没在别的文章找不到,谢谢大家。
动动小手,让更多需要的人看到~
干货日志如何使用命令行解析参数(日志查看聚合干货参数)
(图片来源网络,侵删)

联系我们

在线咨询:点击这里给我发消息