Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >ELK-beats数据采集

ELK-beats数据采集

作者头像
星哥玩云
发布于 2022-09-15 11:39:26
发布于 2022-09-15 11:39:26
85000
代码可运行
举报
文章被收录于专栏:开源部署开源部署
运行总次数:0
代码可运行

一、beats介绍

因为logstash太费内存了,如果在要采集的服务上都安装logstash,你可以想象这样这样资源消耗多高。所以我们要用轻量级的采集工具才更高效,更省资源。

beats是轻量级的日志收集处理工具,Beats占用资源少

  • Packetbeat: 网络数据(收集网络流量数据)
  • Metricbeat: 指标 (收集系统、进程和文件系统级别的 CPU 和内存使用情况等数据)
  • Filebeat: 文件(收集日志文件数据)
  • Winlogbeat: windows事件日志(收集 Windows 事件日志数据
  • Auditbeat:审计数据 (收集审计日志)
  • Heartbeat:运行时间监控 (收集系统运行时的数据)

我们这里主要是收集日志信息, 所以只讨论filebeat。

filebeat可以直接将采集的日志数据传输给ES集群(EFK), 也可以给logstash(**5044**端口接收)。

二、 filebeat

准备工作

机器:node4(192.168.98.204)

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
部署前准备参考https://www.zutuanxue.com/home/4/52_138

filebeat安装

a、yum安装

b、rpm安装

c、源码安装

a、yum安装

如果你安装ES的时候设置过yum源可以直接使用yum命令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
​ # yum -y install filebeat

b、rpm安装

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@node4 ~]# rpm -i filebeat-7.6.0-x86_64.rpm 
警告:filebeat-7.6.0-x86_64.rpm:V4 RSA/SHA512 Signature, 密钥 ID d88e42b4: NOKEY

-i install

c、源码安装

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
参考官方手册

相关文件及目录

安装目录: /usr/share/filebeat

配置文件目录: /etc/filebeat

配置文件:/etc/filebeat/filebeat.yml

服务启动管理

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@node4 ~]# systemctl enable filebeat
Synchronizing state of filebeat.service with SysV service script with /usr/lib/systemd/systemd-sysv-install.
Executing: /usr/lib/systemd/systemd-sysv-install enable filebeat
Created symlink /etc/systemd/system/multi-user.target.wants/filebeat.service → /usr/lib/systemd/system/filebeat.service.

#没有修改配置文件,起不来
[root@node4 ~]# systemctl start filebeat

三、filebeat配置文件

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@node4 ~]# cat /etc/filebeat/filebeat.yml |grep -v '#' |grep -v '^$'
filebeat.inputs:
- type: log
  enabled: false			#默认false,修改为true
  paths:
    - /var/log/*.log		#收集日志的路径
filebeat.config.modules:
  path: ${path.config}/modules.d/*.yml
  reload.enabled: false
setup.template.settings:
  index.number_of_shards: 1
#定义kibana地址
setup.kibana:
#定义ES地址接收数据
output.elasticsearch:
  hosts: ["192.168.98.201:9200"]		
processors:
  - add_host_metadata: ~
  - add_cloud_metadata: ~
  - add_docker_metadata: ~
  - add_kubernetes_metadata: ~

四、收集日志给ES集群

案例:filebeat收集本机messages日志到ES,通过ES-head查看

业务拓扑

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
注意:每做下一个实验前,建议大家把之前的索引数据清除,通过es-head,这样没有干扰,也好验证效果。否则那么多索引信息,对前期学习的你来说,干扰太多了。

a、设置filebeat配置文件

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@node4 ~]# cat /etc/filebeat/filebeat.yml |grep -v '#' |grep -v '^$'
filebeat.inputs:
- type: log
  enabled: true			#默认false,修改为true
  paths:
    - /var/log/messages		#收集日志的路径
filebeat.config.modules:
  path: ${path.config}/modules.d/*.yml
  reload.enabled: false
setup.template.settings:
  index.number_of_shards: 1
#定义kibana地址
setup.kibana:
#定义ES地址接收数据
output.elasticsearch:
  hosts: ["192.168.98.201:9200"]		
processors:
  - add_host_metadata: ~
  - add_cloud_metadata: ~
  - add_docker_metadata: ~
  - add_kubernetes_metadata: ~

b、重启filebeat服务,生效配置

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@node4 ~]# systemctl restart filebeat

c、通过ES-head验证日志收集

拓展:关于filebeat设置数据索引

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@node4 ~]# cat /etc/filebeat/filebeat.yml |grep -v '#' |grep -v '^$'
filebeat.inputs:
- type: log
  enabled: true
  paths:
    - /var/log/messages
filebeat.config.modules:
  path: ${path.config}/modules.d/*.yml
  reload.enabled: false
setup.template.settings:
  index.number_of_shards: 1
setup.kibana:
#在output.*输出全局中插入这行插入,下面三行
#禁用ilm
setup.ilm.enabled: false
#设置索引模板名
setup.template.name: "node4_messages"
#索引前缀
setup.template.pattern: "node4_messages-*"
output.elasticsearch:
  hosts: ["192.168.98.201:9200"]
  #定义索引
  index: "node4_messages-%{+yyyy.MM.dd}"
processors:
  - add_host_metadata: ~
  - add_cloud_metadata: ~
  - add_docker_metadata: ~
  - add_kubernetes_metadata: ~

五、收集日志给logstash

案例:收集本机messages日志到logstash,通过ES-head查看,要求索引为zutuanxue_node4_messages

业务拓扑:

案例分析:

a、设置filebeat配置文件,将采集的日志发送给logstash

b、logstash收到日志添加索引后给ES

c、ES-head验证

a、设置filebeat配置文件,将采集的日志发送给logstash

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@node4 ~]# cat /etc/filebeat/filebeat.yml |grep -v '#' |grep -v '^$'
filebeat.inputs:
- type: log
  enabled: true
  paths:
    - /var/log/messages
filebeat.config.modules:
  path: ${path.config}/modules.d/*.yml
  reload.enabled: false
setup.template.settings:
  index.number_of_shards: 1
setup.kibana:
#定义输出到logstash
output.logstash:
  hosts: ["192.168.98.203:5044"]
processors:
  - add_host_metadata: ~
  - add_cloud_metadata: ~
  - add_docker_metadata: ~
  - add_kubernetes_metadata: ~

b、logstash收到日志添加索引后给ES

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@node3 conf.d]# cat filebeat_to_logstash_es.conf 
input {
    beats {
        port => 5044
    }
}

output {
    elasticsearch {
        hosts => ["192.168.98.201:9200"]
        index => "zutuanxue_node4-%{+YYYY.MM.dd}"  #定义索引
    }
}

重启filebeat、logstash服务生效配置

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@node4 ~]# systemctl restart filebeat
[root@node3 ~]# systemctl restart logstash

c、ES-head验证

完美,实验完成

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
ELK收集nginx access_log日志
公司为了每天都能够随时看到公司WEB业务的实时运行情况,希望运维通过分析access.log日志信息,实时展示一下数据给公司的运营部门:
星哥玩云
2022/09/15
6270
ELK收集nginx access_log日志
ELK Stack日志中心搭建
本文主要目的是简化搭建ELK环境的步骤,使用Docker Compose部署ELK 7.1.1分布式集群的日志框架,只需要执行一个init.sh脚本即可搭建好一个ELK Stack日志中心。
茶半香初
2021/11/26
5800
ELK Stack日志中心搭建
ELK 采集 Nginx 日志联动 ZABBIX 实现 状态码 告警
Nginx 日志配置请参考微信公众号ELK专栏《基于ELK Nginx日志分析》的文章
Kevin song
2020/04/27
1.5K0
ELK 采集 Nginx 日志联动 ZABBIX 实现 状态码 告警
ELK 联动 ZABBIX 实现异常日志告警
本篇文章是基于"ELK 部署可视化网络日志分析监控平台"进行升级, 实现网络异常日志联动ZABBIX告警,网络日志分析监控平台部署请参考前期文章。
Kevin song
2020/02/19
3.1K0
一文带你了解轻量性日志采集器Beats的使用
上篇我们讲解了 ElasticStack 技术栈中 ElasticSearch的使用,这次给大家带来的是 ElasticStack 技术栈中日志采集器 Beats 的使用。
陌溪
2021/05/14
2.1K0
ELK 部署可视化网络日志分析监控平台
随着机房内的服务器和网络设备增加,日志管理和查询就成了让系统管理员头疼的事。系统管理员通常面临问题如下:
Kevin song
2020/02/19
4.2K0
ELK日志收集
Logstash dpkg安装失败所以使用zip解压,然后进如./bin目录下启动
OvO我是肉排菌呀
2021/03/12
5870
ELK日志收集
ELK+filebeat采集java日志
此文章是我在生产环境下搭建ELK日志系统的记录,该日志系统主要是采集Java日志,开发人员能通过kibanaWeb页面查找相关主机的指定日志;对于Java日志,filebeat已做多行合并、过滤行处理,更精准的获取需要的日志信息,关于ELK系统的介绍,这里不再赘述。
肓己
2021/08/12
1.8K0
jmeter采集测试日志
在使用jmeter压测的工作中,不仅需要关注当前qps,也需要查看请求日志. 下面介绍两种方式收集jmeter的请求日志
测试加
2022/03/24
5520
jmeter采集测试日志
背景介绍
使用Filebeat收集本地日志数据,Filebeat监视日志目录或特定的日志文件,再发送到消息队列到kafka,然后logstash去获取消费,利用filter功能过滤分析,最终存储到elasticsearch中。
钢铁知识库
2022/08/20
7210
基于ELK Nginx日志分析
针对业务需求建立用户访问行为记录,基于ELK(Elasticsearch日志检索+Logstash日志收集+Kibana查询 展示)日志处理技术,建立业务日志采集和智能分析系统,实现了对访问用户的行为跟踪和针对不同类别用户的访问热点分析、趋势分析和对比分析。
Kevin song
2020/02/19
2.8K0
ELK、Filebeat环境搭建
ELK为Elasticsearch、Logstash、Kibana简称,Filebeat为日志传输工具
LiosWong
2018/10/29
1.1K0
使用 Docker Compose V2 快速搭建日志分析平台 ELK (Elasticsearch、Logstash 和 Kibana)
ELK的架构有多种,本篇分享使用的架构如图所示: Beats(Filebeat) -> -> Elasticsearch -> Kibana,目前生产环境一天几千万的日志,内存占用大概 10G 左右
易墨
2024/01/21
3.9K1
使用 Docker Compose V2 快速搭建日志分析平台 ELK (Elasticsearch、Logstash 和 Kibana)
06 . ELK Stack + kafka集群
https://www.cnblogs.com/you-men/p/13361910.html
iginkgo18
2020/09/27
3990
ELK日志监控分析系统的探索与实践(一):利用Filebeat监控Springboot日志
由于公司项目较多,所部署服务产生的日志也较多,以往查看服务器日志只能通过xshell、putty等SSH工具分别连接每台服务器,然后进入到各个服务器,执行Linux命令查看日志,这样可能会带来以下问题:
大刚测试开发实战
2022/11/14
2.3K1
ELK日志监控分析系统的探索与实践(一):利用Filebeat监控Springboot日志
利用docker搭建ELK.md
本打算只有elastisearch、kibanan、logstash搭建下ELK,奈何logstash是运行太占内存,于是打算用filebeat(占用资源少)来在各服务器来收集日志,然后统一交给logstash来处理过滤。
晓果冻
2022/06/17
2850
利用docker搭建ELK.md
ELK-收集mysql slow 日志
开发和DBA为了能够实时掌握mysql的运行情况,需要对mysql中执行的sql指令大于1秒的统计出来,并且通过ELK分析,统计,实时查看。通过分析可以让DBA能够优化数据库,能够提升运行速度。
星哥玩云
2022/09/15
6400
Nginx日志分析系统——Elastic Stack的系列产品的使用
Nginx是一款非常优秀的web服务器,往往nginx服务会作为项目的访问入口,那么,nginx的性能保障就变得非常重要了,如果nginx的运行出现了问题就会对项目有较大的影响,所以,我们需要对nginx的运行有监控措施,实时掌握nginx的运行情况,那就需要收集nginx的运行指标和分析nginx的运行日志了。 1.2、业务流程
不愿意做鱼的小鲸鱼
2022/09/24
1K0
Nginx日志分析系统——Elastic Stack的系列产品的使用
Filebeat入门
Beats 可以将数据直接传输到 Elasticsearch 或传输到 Logstash 。
py3study
2020/02/20
2.4K0
ELK 日志分析系统整合 KafKa Zookeeper 集群
kafka/zookeeper 集群配置请参考公众号ELK专栏《KafKa 工作原理 && 集群部署(一)》的文章。
Kevin song
2020/04/27
1.1K0
推荐阅读
相关推荐
ELK收集nginx access_log日志
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验