因招聘要求熟练运用Office,被微软打上门查盗版(微软怎么知道在用盗版office)
673
2022-05-30
2018-09-19 21:52:36
什么是ELFK
ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件。新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent),Filebeat占用资源少,适合于在各个服务器上搜集日志后传输给Logstash,官方也推荐此工具。
Elasticsearch是个开源分布式搜索引擎,提供搜集、分析、存储数据三大功能。它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。
Kibana 也是一个开源和免费的工具,Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助汇总、分析和搜索重要数据日志。
Filebeat隶属于Beats。目前Beats包含四种工具:
1、Packetbeat(搜集网络流量数据)
2、Topbeat(搜集系统、进程和文件系统级别的 CPU 和内存使用情况等数据)
3、Filebeat(搜集文件数据)
4、Winlogbeat(搜集 Windows 事件日志数据)
为什么要用ELFK
一般我们需要进行日志分析场景:直接在日志文件中 grep、awk 就可以获得自己想要的信息。但在规模较大的场景中,此方法效率低下,面临问题包括日志量太大如何归档、文本搜索太慢怎么办、如何多维度查询。需要集中化的日志管理,所有服务器上的日志收集汇总。常见解决思路是建立集中式日志收集系统,将所有节点上的日志统一收集,管理,访问。
一般大型系统是一个分布式部署的架构,不同的服务模块部署在不同的服务器上,问题出现时,大部分情况需要根据问题暴露的关键信息,定位到具体的服务器和服务模块,构建一套集中式日志系统,可以提高定位问题的效率。
一个完整的集中式日志系统,需要包含以下几个主要特点:收集、传输、存储、分析、警告,而ELK提供了一整套解决方案,并且都是开源软件,之间互相配合使用,完美衔接,高效的满足了很多场合的应用。并且是目前主流的一种日志系统。
官方文档知识库
Filebeat:
https://www.elastic.co/cn/products/beats/filebeat
https://www.elastic.co/guide/en/beats/filebeat/5.6/index.html
Logstash:
https://www.elastic.co/cn/products/logstash
https://www.elastic.co/guide/en/logstash/5.6/index.html
Kibana:
https://www.elastic.co/cn/products/kibana
https://www.elastic.co/guide/en/kibana/5.5/index.html
Elasticsearch:
https://www.elastic.co/cn/products/elasticsearch
https://www.elastic.co/guide/en/elasticsearch/reference/5.6/index.html
elasticsearch中文社区:
https://elasticsearch.cn/
准备Elasticsearch
1、安装Java环境
yum -y install java-1.8.0-openjdk export JAVA_HOME=/usr/java
2、编写Elasticearch的yum仓库文件
rpm --import http://packages.elasticsearch.org/GPG-KEY-elasticsearch vim /etc/yum.repos.d/elasticsearch.repo [elasticsearch-6.x] name=Elasticsearch repository for 6.x packages baseurl=https://artifacts.elastic.co/packages/6.x/yum gpgcheck=1 gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch enabled=1 autorefresh=1 type=rpm-md yum clean all
3、安装Elasticsearch
yum -y install elasticsearch
4、配置Elasticsearch
vim /etc/elasticsearch/elasticsearch.yml cluster.name: KJ-Cloud #配置集群名称 node.name: node.kemin-cloud.com #配置节点名称 path.data: /var/lib/elasticsearch #配置data存放的路径 path.logs: /var/log/elasticsearch #配置日志存放的路径 bootstrap.memory_lock: false #配置是否使用内存交换分区 bootstrap.system_call_filter: false #配置是否启用检测 network.host: 0.0.0.0 #配置监听地址 http.port: 9200 #配置监听端口 discovery.zen.ping.multicast.enabled: false #配置是否启用广播地址 discovery.zen.ping.unicast.hosts: ["127.0.0.1"] #配置指定节点
5、增加vm.max_map_count项到sysctl.conf文件中
vim /etc/sysctl.conf vm.max_map_count = 655360 sysctl -p
6、修改用户文件最大数量
vim /etc/security/limits.conf * soft nofile 65536 * hard nofile 131072 * soft nproc 2048 * hard nproc 4096 vim /etc/security/limits.d/90-nproc.conf * soft nproc 1024 #修改为* soft nproc 2048
7、验证Elasticsearch是否正常
curl http://127.0.0.1:9200/
努力爬坑。。。。
报错:system call filters failed to install; check the logs and fix your configuration or disable system call filters at your own risk
原因:这是在因为操作系统不支持SecComp,而ES5.2.2默认bootstrap.system_call_filter为true进行检测,所以导致检测失败,失败后直接导致ES不能启动。
解决:vim /etc/elasticsearch/elasticsearch.yml
bootstrap.memory_lock: false
bootstrap.system_call_filter: false
报错:max virtual memory areas vm.max_map_count [65536] is too low, increase to at least [262144]
原因:最大虚拟内存区域设置过小
解决:vim /etc/sysctl.conf
vm.max_map_count = 655360
报错:max file descriptors [4096] for elasticsearch process likely too low, increase to at least [65536],max number of threads [1024] for user [lishang] likely too low, increase to at least [2048]
原因:最大文件描述符和最大线程数设置过小
解决:vi /etc/security/limits.conf
* soft nofile 65536
* hard nofile 131072
* soft nproc 2048
* hard nproc 4096
报错:max number of threads [1024] for user [lish] likely too low, increase to at least [2048]
原因:用户最大线程数设置过小
解决:vi /etc/security/limits.d/90-nproc.conf
* soft nproc 1024 #修改为* soft nproc 2048
准备Logstash
1、编写Logstash的yum仓库文件
rpm --import http://packages.elasticsearch.org/GPG-KEY-elasticsearch vim /etc/yum.repos.d/logstash.repo [logstash-6.x] name=Elastic repository for 6.x packages baseurl=https://artifacts.elastic.co/packages/6.x/yum gpgcheck=1 gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch enabled=1 autorefresh=1 type=rpm-md yum clean all
2、安装Logstash
yum -y install logstash
3、测试Logstash
/usr/share/logstash/bin/logstash -e 'input { stdin { } } output { elasticsearch { hosts => ["127.0.0.1:9200"] } stdout { codec => rubydebug }}'
图形化Kibana
1、编写Kibana的yum仓库文件
rpm --import http://packages.elasticsearch.org/GPG-KEY-elasticsearch vim /etc/yum.repos.d/kibana.repo [kibana-6.x] name=Kibana repository for 6.x packages baseurl=https://artifacts.elastic.co/packages/6.x/yum gpgcheck=1 gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch enabled=1 autorefresh=1 type=rpm-md yum clean all
2、安装Kibana
yum install kibana
3、配置Kibana
vim /etc/kibana/kibana.yml server.port: 5601 server.host: "0.0.0.0" elasticsearch.url: "http://127.0.0.1:9200" kibana.index: ".kibana"
4、启动Kibana
service kibana start
5、测试访问Kibana
http://127.0.0.1:5601
最后总结
总的来说,ELK日志搜集分析平台搭建是遇到的问题还是会有的,和服务器有关,所以在服务起不来,报错的情况下莫慌,稳住,想看报错,然后分析,报错说哪里有问题就调整哪里,一步一步来,这仅仅是部署搭建而已,真正的运用搜集日志还没开始呢,后面还会更新有关Logstash的更多知识,如果小伙伴们在搭建的过程中有什么问题还可以在下方留言,我们可以一起探讨探讨~~
分布式 实时流计算服务 CS
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。