本文共 1286 字,大约阅读时间需要 4 分钟。
ELK是目前行业中非常热门的一个技术,它可以用于电商网站、门户网站、企业IT系统等各种场景下,也可以用于对海量的数据进行近实时的数据分析。
到底什么是ELK?
ELK呢,就是给运维提供辅助的一个应用套件。运维工作就是对各种业务系统进行监控,发现问题,能够及时告警,然后能够迅速查到问题,进而解决问题,这是运维工作的核心。
而如果运维管理的服务器和业务系统非常多的情况下,可能无法及时、准确的了解每个业务系统和服务器的状态,如果发现业务系统有问题,那就需要登录业务系统服务器去查问题,但是如果服务器很多呢,有几百台、甚至更多情况下,不可能一个一个系统登录查看吧。
那么,问题就来了?
怎么解决这种问题呢,ELK这个套件工具,就可以解决这个问题,ELK是集中对日志进行收集、过滤、分析、可视化展示的工具。
通过ELK,将运维所有的服务器日志,业务系统日志都收集到一个平台下,然后提取想要的内容,比如错误信息,警告信息等,当过滤到这种信息,就马上告警,告警后,运维人员就能马上定位是哪台机器、哪个业务系统出现了问题,出现了什么问题,都会在ELK平台有详细的描述。
ELK的功能是?
这样通过这个ELK平台,就避免了运维人员登录每个机器,一台一台查看日志的麻烦,遇到问题,迅速发现,迅速定位,迅速解决问题,最终,提升运维的工作效率。当然,ELK还有更大的功能,对大数据做分析,还可以和Hadoop大数据平台整合。
专栏解决了什么?
本专栏属于从入门到应用实战性质的一个专栏,深入浅出剖析ELK在企业常见应用框架以及ZooKeeper、Kafka与ELK进行整合的方法和架构。
首选通过具体的一个应用案例介绍ZooKeeper+Kafka+ELK构建一套实时日志处理系统的过程。然后通过对Logstash和Filebeat的对比,深入介绍Filebeat及ELK的安装配置以及日志数据可视化的实现方法。
接着,详细介绍了Logstash的各种应用插件以及具体用法。最后通过多个案例介绍了如何收集Apache、Nginx、Tomcat、Mysql、HDFS等日志收集案例以及ELK的优化经验和措施。
目前,ELK专栏内容已经全部更新完成,内容截图如下:
专栏链接:链接:
专栏订阅成功后,即可通过以下三个途径永久阅读
1.“51CTO”微信服务号端
2.“51CTO博客”web端
3.“51CTO学院”Android App端
适用人群
1.Linux运维工程师
2.大数据分析工程师
订阅说明:
1.本专栏为图文专栏,共计15篇
2.专栏定期更新,更新频次为每周一篇3.专栏一经订阅永久阅读, 可与作者留言互动4.本专栏为虚拟产品,一经订阅,概不退款,请慎重订购5.专栏阅读过程中,如有任何问题请联系51CTO小助手(微信:cto51boke/QQ:3591348659)
学习本专栏您能收获什么:
1.尽快熟悉ELK架构
2.构建Web应用程序3.完成分布式信息检索与分析4.分布式的实时日志(数据)搜集和分析的监控系统实例
地址:
转载地址:http://sgtva.baihongyu.com/