1.安装elasticsearch
1)创建elk用户
elasticsearch无法在root用户下运行,因此需要创建一个新用户
2)更改elasticsearch目录所属用户
chown -R elk:elk elasticsearch-7.8.0 # -R 参数表示递归子目录
3)配置elasticsearch
编辑config目录下的配置文件:vi elasticsearch.yml
cluster.name: my-application
node.name: node-1
path.data: /home/ELK/elasticsearch-7.8.0/data
path.logs: /home/ELK/elasticsearch-7.8.0/logs
bootstrap.memory_lock: false
network.host: 192.168.16.21
http.port: 9200
bootstrap.system_call_filter: false
cluster.initial_master_nodes: ["node-1"]
4)常见报错及解决
报错如上图所示,解决办法:
① 切换到root用户,修改配置文件sysctl.conf:vi /etc/sysctl.conf,在末尾行添加内容:
② 保存后执行命令:sysctl -p,使配置生效
报错如上图所示,解决办法:
①切换到root用户,修改配置文件limits.conf:vi /etc/security/limits.conf,在末尾行添加内容:
* soft nofile 65536
* hard nofile 131072
② 再次启动后,浏览器访问:http://ip:9200/ 出现以下页面返回则表示启动成功
原因:(重复启动)线程被占用,已存在es线程,且正在运行中
如上图所示,脚本启动后只有如上提示,不加载任何模块,解决办法:
① 再次新建一个用户,如elastic:useradd elastic
② 将elasticsearch-7.8.0更改属组:chown -R elastic:elastic elasticsearch-7.8.0
③ 切换至elastic用户:su elastic
④ 启动elasticsearch
5)配置脚本启动方式
① 确认启动无问题后,先暂时Ctrl+c关闭服务,创建后台启动脚本:startup.sh,内容如下:
/home/ELK/elasticsearch-7.8.0/bin/elasticsearch -d
② 赋予startup.sh执行权限:chmod +x startup.sh
2.安装logstash
logstash可以用root用户运行,logstash也是需要在jdk1.8以上版本运行,所以可以不用像elasticsearch那样必须用新建一个elk用户
① 将logstash-7.8.0.tar.gz通过xftp等工具复制到指定服务器
② 解压logstash-7.8.0.tar.gz:tar -xvf logstash-7.8.0.tar.gz
③ 创建启动脚本:startup.sh,内容如下:
nohup /home/ELK/logstash-7.8.0/bin/logstash -f config.conf >/dev/null 2>&1 &
④ 赋予脚本执行权限:chmod +x startup.sh
⑤ 通过脚本启动:./startup.sh
出现如下图所示提示,表示启动成功:
3.安装Kibana
1)修改配置文件kibana.yml
server.port: 5601
server.host: "192.168.16.4"
elasticsearch.hosts: ["http://192.168.16.21:9200"]
kibana.index: ".kibana"
i18n.locale: "zh-CN"
2)创建启动脚本startup.sh
startup.sh内容如下,注意事项:
① 一定要加 --allow-root参数,允许root用户允许,否则会报错
② 创建完赋予用户执行权限:chmod u+x startup.sh
nohup /home/ELK/kibana-7.8.0/bin/kibana --allow-root
3)启动kibana
使用./startup.sh启动
4)浏览器访问
http://ip:5601
5.部署并配置Filebeat
① 将filebeat-7.8.0-linux-x86_64.tar.gz文件复制到需要采集日志的各个服务器上
② 解压缩文件:tar -xvf filebeat-7.8.0-linux-x86_64.tar.gz
③ 进入解压后的目录,编辑filebeat.yml,内容如下
filebeat.inputs:
- type: log
enabled: true
tags: ["rs_debug"]
paths:
- /home/rs/logs/debug.log
- type: log
enabled: true
tags: ["mn_error"]
paths:
- /home/mn/logs/error.log
filebeat.config.modules:
path: ${path.config}/modules.d/*.yml
reload.enabled: false
setup.template.settings:
index.number_of_shards: 1
index.number_of_replicas: 0
setup.kibana:
host: "192.168.16.4:5601"
output.logstash:
hosts: ["192.168.16.22:5044"]
processors:
- add_host_metadata: ~
- add_cloud_metadata: ~
- add_docker_metadata: ~
- add_kubernetes_metadata: ~
6.配置Logstash
新建一个config.conf文件,主要逻辑:先从logstash中检索日志是否存在指定的标签名(前面在Filebeat中定义的标签名,与此处对应),若存在,则将日志进行重新命名再传递给下一个环节ES
具体内容如下:
input {
grok {
match => { "message" => "%{COMBINEDAPACHELOG}"}
}
geoip {
source => "clientip"
}
}
output {
if "rs_debug" in [tags] {
elasticsearch {
hosts => [ "192.168.16.21:9200" ]
index => "[test_rs_debug_log]"
}
}
if "mn_error" in [tags] {
elasticsearch {
hosts => [ "192.168.16.21:9200" ]
index => "[mn_error_log]"
}
}
}
7.Kibana中创建索引
① 打开索引模式
左上角菜单--Management--Stack Management--Kibana--索引模式
② 输入索引名称,匹配具体日志
输入具体的名称后,可以匹配到某个日志,注意:输入的名称需与中括号及中括号内的内容完全匹配,“下一步”按钮才能被点亮,否则无法进入下一步,后半部分日期部分可以不用输入
③ 配置索引
选择一个时间字段,如果日志数据中本身没有,可以使用@timestamp
④ 进入日志面板
左上角菜单-Kibana-Discover,进入Kibana日志面板
五、Kibana日志面板使用
左上角菜单--Kibana--Discover,日志面板中:
可以切换索引来查看不同服务的日志
可以根据时间段筛选日志
可以自定义日志列表字段
可以通过Kibana特有的KSQL检索日志
1.定制列表字段
默认的日志中有大量字段信息是冗余的,可以通过左侧添加message字段来进行过滤
2.KSQL语句筛选
语法:
冒号表示 等于
冒号+星号表示任意匹配
and表示两个参数必须同时满足
or表示一个或多个参数满足一个即可
例如:我想筛选指定时间段内的冒烟测试执行的相关接口日志,那么就可以通过【message: * 冒烟测试】来进行筛选:
3.切换项目日志
点开索引列表,在列表中手动切换索引即可查看对应项目的日志:
六、ELK日志监控平台优缺点分析
优点:
同时监控多套环境、多个项目的日志:由于我们的测试环境和开发环境内网在同一个网段下,因此我基于多个(dev+test)环境创建了多个项目的索引,以dev、test开头作为索引的名称,以此区分环境类型,在索引列表中可手动切换索引查看对应项目的日志,无需像往常一样登录多台服务器、打开多个窗口;
不占用服务器资源:Elasticsearch、Logstash、Kibana分别部署在多台服务器上,Filebeat仅部署在需要采集日志的服务器上,它们彼此通过内外相互联通,因此并不会集中占用内存、CPU等资源;
外网访问,通过浏览器即可随时随地访问,无需任何工具:另由于Kibana所在的服务器可以通过外网IP访问,因此,即使回到家中,也能通过浏览器实时访问到各个环境下各个项目的日志信息;
缺点:
七、小结
ELK是一套完整的日志收集、展示解决方案,由ElasticSearch、Logstash 和 Kibana三个单词首字母拼接而成。其中:Logstash负责将日志进行过滤、收集,再传输到Elasticsearch上;Elasticsearch负责把日志作为索引进行存储并且构造对应倒排索引;Kibana负责可视化呈现日志,需要查询时Kibana调用Elasticsearch进行日志数据的查询;
ELK+Filebeat可用于Springboot及微服务日志的监控,Filebeat部署在需要采集日志的各个服务器上,负责监听指定log文件;
Kibana日志面板创建索引后能够监控和分析指定服务的指定日志文件;
-
Linux常用命令是一切服务部署的基础,本次用到的命令有:cp(复制)、tar(解压文件)、chown(改变文件属组)、chmod(更改文件权限)、vim命令(插入模式、命令模式、末行模式之间的来回切换,快捷操作)、nohup(不挂起运行)......
-
本篇内容仅列举了ELK日志监控的相关内容,其实ELK的用途远不止这些,它还可以用来监控服务器内存、CPU、磁盘、MySQL数据库、Nginx、RabbitMQ中间件,添加可视化报表等,感兴趣的可自行研究;