企业都在用的ELK

网友投稿 646 2022-05-30

2018-09-19 21:52:36

什么是ELFK

ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件。新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent),Filebeat占用资源少,适合于在各个服务器上搜集日志后传输给Logstash,官方也推荐此工具。

Elasticsearch是个开源分布式搜索引擎,提供搜集、分析、存储数据三大功能。它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。

Kibana 也是一个开源和免费的工具,Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助汇总、分析和搜索重要数据日志。

Filebeat隶属于Beats。目前Beats包含四种工具:

1、Packetbeat(搜集网络流量数据)

2、Topbeat(搜集系统、进程和文件系统级别的 CPU 和内存使用情况等数据)

3、Filebeat(搜集文件数据)

4、Winlogbeat(搜集 Windows 事件日志数据)

为什么要用ELFK

大企业都在用的ELK

一般我们需要进行日志分析场景:直接在日志文件中 grep、awk 就可以获得自己想要的信息。但在规模较大的场景中,此方法效率低下,面临问题包括日志量太大如何归档、文本搜索太慢怎么办、如何多维度查询。需要集中化的日志管理,所有服务器上的日志收集汇总。常见解决思路是建立集中式日志收集系统,将所有节点上的日志统一收集,管理,访问。

一般大型系统是一个分布式部署的架构,不同的服务模块部署在不同的服务器上,问题出现时,大部分情况需要根据问题暴露的关键信息,定位到具体的服务器和服务模块,构建一套集中式日志系统,可以提高定位问题的效率。

一个完整的集中式日志系统,需要包含以下几个主要特点:收集、传输、存储、分析、警告,而ELK提供了一整套解决方案,并且都是开源软件,之间互相配合使用,完美衔接,高效的满足了很多场合的应用。并且是目前主流的一种日志系统。

官方文档知识库

Filebeat:

https://www.elastic.co/cn/products/beats/filebeat

https://www.elastic.co/guide/en/beats/filebeat/5.6/index.html

Logstash:

https://www.elastic.co/cn/products/logstash

https://www.elastic.co/guide/en/logstash/5.6/index.html

Kibana:

https://www.elastic.co/cn/products/kibana

https://www.elastic.co/guide/en/kibana/5.5/index.html

Elasticsearch:

https://www.elastic.co/cn/products/elasticsearch

https://www.elastic.co/guide/en/elasticsearch/reference/5.6/index.html

elasticsearch中文社区:

https://elasticsearch.cn/

准备Elasticsearch

1、安装Java环境

yum -y install java-1.8.0-openjdk export JAVA_HOME=/usr/java

2、编写Elasticearch的yum仓库文件

rpm --import http://packages.elasticsearch.org/GPG-KEY-elasticsearch vim /etc/yum.repos.d/elasticsearch.repo [elasticsearch-6.x] name=Elasticsearch repository for 6.x packages baseurl=https://artifacts.elastic.co/packages/6.x/yum gpgcheck=1 gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch enabled=1 autorefresh=1 type=rpm-md yum clean all

3、安装Elasticsearch

yum -y install elasticsearch

4、配置Elasticsearch

vim /etc/elasticsearch/elasticsearch.yml cluster.name: KJ-Cloud    #配置集群名称 node.name: node.kemin-cloud.com    #配置节点名称 path.data: /var/lib/elasticsearch    #配置data存放的路径 path.logs: /var/log/elasticsearch    #配置日志存放的路径 bootstrap.memory_lock: false    #配置是否使用内存交换分区 bootstrap.system_call_filter: false    #配置是否启用检测 network.host: 0.0.0.0    #配置监听地址 http.port: 9200    #配置监听端口 discovery.zen.ping.multicast.enabled: false    #配置是否启用广播地址 discovery.zen.ping.unicast.hosts: ["127.0.0.1"]    #配置指定节点

5、增加vm.max_map_count项到sysctl.conf文件中

vim /etc/sysctl.conf vm.max_map_count = 655360 sysctl -p

6、修改用户文件最大数量

vim /etc/security/limits.conf * soft nofile 65536 * hard nofile 131072 * soft nproc 2048 * hard nproc 4096 vim /etc/security/limits.d/90-nproc.conf * soft nproc 1024    #修改为* soft nproc 2048

7、验证Elasticsearch是否正常

curl http://127.0.0.1:9200/

努力爬坑。。。。

报错:system call filters failed to install; check the logs and fix your configuration or disable system call filters at your own risk

原因:这是在因为操作系统不支持SecComp,而ES5.2.2默认bootstrap.system_call_filter为true进行检测,所以导致检测失败,失败后直接导致ES不能启动。

解决:vim /etc/elasticsearch/elasticsearch.yml

bootstrap.memory_lock: false

bootstrap.system_call_filter: false

报错:max virtual memory areas vm.max_map_count [65536] is too low, increase to at least [262144]

原因:最大虚拟内存区域设置过小

解决:vim /etc/sysctl.conf

vm.max_map_count = 655360

报错:max file descriptors [4096] for elasticsearch process likely too low, increase to at least [65536],max number of threads [1024] for user [lishang] likely too low, increase to at least [2048]

原因:最大文件描述符和最大线程数设置过小

解决:vi /etc/security/limits.conf

* soft nofile 65536

* hard nofile 131072

* soft nproc 2048

* hard nproc 4096

报错:max number of threads [1024] for user [lish] likely too low, increase to at least [2048]

原因:用户最大线程数设置过小

解决:vi /etc/security/limits.d/90-nproc.conf

* soft nproc 1024    #修改为* soft nproc 2048

准备Logstash

1、编写Logstash的yum仓库文件

rpm --import http://packages.elasticsearch.org/GPG-KEY-elasticsearch vim /etc/yum.repos.d/logstash.repo [logstash-6.x] name=Elastic repository for 6.x packages baseurl=https://artifacts.elastic.co/packages/6.x/yum gpgcheck=1 gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch enabled=1 autorefresh=1 type=rpm-md yum clean all

2、安装Logstash

yum -y install logstash

3、测试Logstash

/usr/share/logstash/bin/logstash -e 'input { stdin { } } output { elasticsearch { hosts => ["127.0.0.1:9200"] } stdout { codec => rubydebug }}'

图形化Kibana

1、编写Kibana的yum仓库文件

rpm --import http://packages.elasticsearch.org/GPG-KEY-elasticsearch vim /etc/yum.repos.d/kibana.repo [kibana-6.x] name=Kibana repository for 6.x packages baseurl=https://artifacts.elastic.co/packages/6.x/yum gpgcheck=1 gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch enabled=1 autorefresh=1 type=rpm-md yum clean all

2、安装Kibana

yum install kibana

3、配置Kibana

vim /etc/kibana/kibana.yml server.port: 5601 server.host: "0.0.0.0" elasticsearch.url: "http://127.0.0.1:9200" kibana.index: ".kibana"

4、启动Kibana

service kibana start

5、测试访问Kibana

http://127.0.0.1:5601

最后总结

总的来说,ELK日志搜集分析平台搭建是遇到的问题还是会有的,和服务器有关,所以在服务起不来,报错的情况下莫慌,稳住,想看报错,然后分析,报错说哪里有问题就调整哪里,一步一步来,这仅仅是部署搭建而已,真正的运用搜集日志还没开始呢,后面还会更新有关Logstash的更多知识,如果小伙伴们在搭建的过程中有什么问题还可以在下方留言,我们可以一起探讨探讨~~

分布式 实时流计算服务 CS

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:MySQL 快速入门 之常使用到的语句
下一篇:qt5 中文乱码解决
相关文章