Loading [MathJax]/jax/input/TeX/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Docker 入门到实战教程(十二)ELK+Filebeat搭建日志分析系统

Docker 入门到实战教程(十二)ELK+Filebeat搭建日志分析系统

作者头像
小东啊
发布于 2020-07-23 09:28:17
发布于 2020-07-23 09:28:17
4.8K10
代码可运行
举报
文章被收录于专栏:李浩东的博客李浩东的博客
运行总次数:0
代码可运行

为什么用到ELK:

一般我们需要进行日志分析场景:直接在日志文件中 grep、awk 就可以获得自己想要的信息。但在规模较大的场景中,此方法效率低下,面临问题包括日志量太大如何归档、文本搜索太慢怎么办、如何多维度查询。需要集中化的日志管理,所有服务器上的日志收集汇总。常见解决思路是建立集中式日志收集系统,将所有节点上的日志统一收集,管理,访问。

一般大型系统是一个分布式部署的架构,不同的服务模块部署在不同的服务器上,问题出现时,大部分情况需要根据问题暴露的关键信息,定位到具体的服务器和服务模块,构建一套集中式日志系统,可以提高定位问题的效率。

一个完整的集中式日志系统,需要包含以下几个主要特点:

收集-能够采集多种来源的日志数据 传输-能够稳定的把日志数据传输到中央系统 存储-如何存储日志数据 分析-可以支持 UI 分析 警告-能够提供错误报告,监控机制 ELK提供了一整套解决方案,并且都是开源软件,之间互相配合使用,完美衔接,高效的满足了很多场合的应用。目前主流的一种日志系统。

ELK+Filebeat简介

ELK是Elasticsearch、Logstash、Kibana的简称,这三者是核心套件实现日志采集、分析、展示,但并非全部。

Elasticsearch是实时全文搜索和分析引擎,提供搜集、分析、存储数据三大功能;是一套开放REST和JAVA API等结构提供高效搜索功能,可扩展的分布式系统。它构建于Apache Lucene搜索引擎库之上。

Logstash是一个用来搜集、分析、过滤日志的工具。它支持几乎任何类型的日志,包括系统日志、错误日志和自定义应用程序日志。它可以从许多来源接收日志,这些来源包括 syslog、消息传递(例如 RabbitMQ)和JMX,它能够以多种方式输出数据,包括电子邮件、websockets和Elasticsearch。

Kibana是一个基于Web的图形界面,用于搜索、分析和可视化存储在 Elasticsearch指标中的日志数据。它利用Elasticsearch的REST接口来检索数据,不仅允许用户创建他们自己的数据的定制仪表板视图,还允许他们以特殊的方式查询和过滤数据。

Filebeat隶属于Beats。目前Beats包含四种工具:

Packetbeat(搜集网络流量数据) Topbeat(搜集系统、进程和文件系统级别的 CPU 和内存使用情况等数据) Filebeat(搜集文件数据) Winlogbeat(搜集 Windows 事件日志数据)

先看下效果

file

下面开始搭建

一. 架构图

图片来源于网络

二. Docker安装ElasticSearch

2.1 官网安装
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker pull docker.elastic.co/elasticsearch/elasticsearch:7.6.1

2.2 设置参数

在elasticsearch的docker版本文档中,官方提到了vm.max_map_count的值在生产环境最少要设置成262144。设置的方式有两种

永久性的修改,在/etc/sysctl.conf文件中添加一行:grep vm.max_map_count /etc/sysctl.conf # 查找当前的值。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
vm.max_map_count=262144 # 修改或者新增

file

正在运行的机器:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sysctl -w vm.max_map_count=262144
2.3 创建本地挂载数据与配置文件

数据储存路径

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mkdir -p /usr/local/src/docker/es/data

配置文件路径

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
/usr/local/elk/es/config/elasticsearch.yml
2.3 修改配置文件

elasticsearch.yml

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# 配置es的集群名称
cluster.name: "docker-cluster"
# 0.0.0.0为不限制,生产环境请设置为固定IP
network.host: 0.0.0.0
# 开启x-pack安全验证 访问时需要密码
xpack.security.enabled: true
# 关闭跨域验证(可以不开启)
http.cors.enabled: true
http.cors.allow-origin: "*"

参数说明:

  • xpack.security.enabled: truees从6.3之后内置了xpack模块,但是是默认关闭的
2.4 启动命令
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker run -d --name es -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" -v /usr/local/src/elk/es/data:/usr/share/elasticsearch/data -v /usr/local/src/elk/es/config/elasticsearch.yml://usr/share/elasticsearch/config/elasticsearch.yml --privileged=true docker.elastic.co/elasticsearch/elasticsearch:7.3.1

file

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
把宿主机es挂载的data目录的权限开启就行了
chmod 777 /usr/local/src/elk/es/data
2.5 设置密码
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# docker 进入容器
docker exec -it es /bin/bash
# 修改密码
[root@g50 elasticsearch]# bin/elasticsearch-setup-passwords interactive

elastic,apm_system,kibana,logstash_system,beats_system,remote_monitoring_user 等密码是一起修改的

2.6 测试是否成功

访问前,确保防火墙或安全组已经设置好

打开浏览器输入ip:9200即可

file

可以看到需要验证用户密码,输入刚刚设置的密码即可

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
用户名: elastic
密码: xxxx

成功后会看到以下内容

file

OK! es安装完毕

三. 安装Logstsh

3.1 拉取官方镜像
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker pull docker.elastic.co/logstash/logstash:7.6.1

file

3.2 创建挂载数据与配置文件
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mkdir -p /usr/local/src/elk/logstash/config
touch /usr/local/src/elk/logstash/config/logstash.conf
touch /usr/local/src/elk/logstash/config/logstash.yml
3.3 修改配置文件
  • logstash.conf

logstash pipeline 包含两个必须的元素:input和output,和一个可选元素:filter。

从input读取事件源,(经过filter解析和处理之后),从output输出到目标存储库(elasticsearch或其他)

file

logstash.conf配置详情

file

我这里配置的是要处理logback日志文件

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
input {
    beats {
        port => 5044
	    ssl => false
    }
}

filter {
     grok {
        # 筛选过滤
        match => {
           "message" => "(?<timestamp>\d{4}-\d{2}-\d{2}\s\d{2}:\d{2}:\d{2}.\d{3}) %{GREEDYDATA:thread} %{LOGLEVEL:level} %{GREEDYDATA:class} - (?<msg>.*)"
        }
	remove_field => ["message"]
     }
	# 不匹配正则则删除,匹配正则用=~
     if [level] !~ "(ERROR|WARN|INFO)" {
         # 删除日志
         drop {}
     }
}


output {
   stdout {
    codec => rubydebug #控制台输出处理过后的数据
 }
if [fields][logtype] == "pre"{
    elasticsearch {
      hosts => ["ip:9200"]
      user => elastic
      password => xxx
      index => "pre"
    }
  }
if [fields][logtype] == "prex"{
    elasticsearch {
      hosts => ["ip:9200"]
      user => elastic
      password => xxx
      index => "prex"
    }
  }
}

注:

  • input 这里其实把logstash作为服 务,开启5044端口接收filebeat发出的消息
  • filter 主要用来过滤日志文件处理成我们需要的数据
  • grok 解析文本并构造 把非结构化日志数据通过正则解析成结构化和可查询化
  • output 采集的日志要进行输出,将事件发送到特定目标 ,我这里配置的es,并使用账号密码

备注: 官方提供了很多正则的grok pattern可以直接使用: :https://github.com/logstash-plugins/logstash-patterns-core/blob/master/patterns

grok debug工具: http://grokdebug.herokuapp.com

正则表达式调试工具: https://www.debuggex.com/

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
grok 里边有定义好的现场的模板你可以用,但是更多的是自定义模板,规则是这样的,小括号里边包含所有一个key和value,例子:(?<key>value),比如以下的信息,第一个我定义的key是data,表示方法为:?<key> 前边一个问号,然后用<>把key包含在里边去。value就是纯正则了,这个我就不举例子了。这个有个在线的调试库,可以供大家参考,
http://grokdebug.herokuapp.com/

我这里是按照JAVA日志格式进行编写的

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
{
  "date": [
    [
      "2019-09-21 20:34:09.318"
    ]
  ],
  "thread": [
    [
      "[XNIO-1 task-39]"
    ]
  ],
  "level": [
    [
      "DEBUG"
    ]
  ],
  "class": [
    [
      "com.xd.pre.modules.sys.mapper.SysLogMapper.insert"
    ]
  ],
  "msg": [
    [
      "- ==> Parameters: 103.134.198.167(String), 1(Integer), admin(String), 查询用户集合(String), getList(String), /user(String), [com.baomidou.mybatisplus.extension.plugins.pagination.Page@1cb5e16a, UserDTO(userId=null, username=, password=null, deptId=0, jobId=null, phone=null, email=null, avatar=null, lockFlag=null, delFlag=null, roleList=null, deptList=null, newPassword=null, smsCode=null)](String), Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36(String), com.xd.pre.modules.sys.controller.SysUserController(String), GET(String), 2019-09-21T20:34:08.905(LocalDateTime), 2019-09-21T20:34:08.905(LocalDateTime), 0(Long)"
    ]
  ]
}
logstash.yml

file

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# 不受限限制访问
http.host: 0.0.0.0
# 使用了es安全认证所以要配置es相关信息
xpack.monitoring.elasticsearch.hosts:
- http://ip:9200
# 使用x-pack安全认证
xpack.monitoring.enabled: true
# es账号
xpack.monitoring.elasticsearch.username: "elastic" 
# es密码
xpack.monitoring.elasticsearch.password: "xxx"
4. 启动命令
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker run -p 5044:5044 \
--name logstash -d \
-v /usr/local/src/elk/logstash/config/logstash.conf:/usr/share/logstash/pipeline/logstash.conf:rw \
-v /usr/local/src/elk/logstash/config/logstash.yml:/usr/share/logstash/config/logstash.yml:rw \
docker.elastic.co/logstash/logstash:7.6.1

file

5. 查看启动日志
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker logs -f logstash

启动成功

file

四. 安装Kibana

4.1 安装

拉取官方镜像

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker pull docker.elastic.co/kibana/kibana:7.6.1
4.2 创建文件夹和配置文件
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mkdir /usr/local/src/elk/kibana
mkdir /usr/local/src/elk/kibana/config
touch /usr/local/src/elk/kibana/config/kibana.yml
4.3 修改配置
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
vim /usr/local/src/elk/kibana/config/kibana.yml

file

配置文件

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
server.name: kibana
server.host: "0"
elasticsearch.hosts: [ "http://elasticsearch:9200" ]
elasticsearch.username: elastic
elasticsearch.password: xxx
xpack.monitoring.ui.container.elasticsearch.enabled: true
#汉化
i18n.locale: "zh-CN"
4.4 启动命令
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker run -d -p 5601:5601 \
--name=kibana \
-v /usr/local/src/elk/kibana/config/kibana.yml:/usr/share/kibana/config/kibana.yml \
docker.elastic.co/kibana/kibana:7.6.1

使用link参数,会在kibana容器hosts文件中加入elasticsearch ip地址,这样我们就直接通过定义的name来访问es服务

4.5 启动测试

打开浏览器访问ip:5601

file

然后输入账号密码即可

file

五. Filebeat

5.1 安装

拉取官方镜像

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
pull docker.elastic.co/beats/filebeat:7.6.1
5.2 在宿主机创建文件夹和文件
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mkdir -p /usr/local/src/elk/filebeat/data
mkdir -p /usr/local/src/elk/filebeat/config
touch /usr/local/elk/filebeat/config/filebeat.yml
5.3 修改配置文件

file

filebeat.yml

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
filebeat.inputs:
- input_type: log
  enable: true
  paths:  # 采集日志的路径这里是容器内的path
   - /Users/lihaodong/Desktop/log/**
  multiline.pattern: '^[0-9]{4}-[0-9]{2}-[0-9]{2}'
  multiline.negate: true
  multiline.match: after
  multiline.timeout: 10s
  # 为每个项目标识,或者分组,可区分不同格式的日志
  tags: ["pre-logs"]
  # 这个文件记录日志读取的位置,如果容器重启,可以从记录的位置开始取日志
  registry_file: /usr/share/filebeat/data/
  fields:
    logsource: node1
    logtype: pre

# 输出到logstash中,logstash更换为自己的ip
output.logstash:
  enabled: true
  hosts: ["ip:5044"]

注: Logstash的配置

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
output:
    logstash:
        hosts: ["ip:5044"]
        worker: 2
        loadbalance: true
        index: filebeat
 
这里worker 的含义,是 beat 连到每个 host 的线程数。
在  loadbalance  开启的情况下,意味着有 4 个worker 轮训发送数据
5.4 启动命令
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker run --name filebeat -d \
-v /Users/lihaodong/Desktop/log:/Users/lihaodong/Desktop/log \
-v /usr/local/src/elk/filebeat/config/filebeat.yml:/usr/share/filebeat/filebeat.yml \
-v /usr/local/src/elk/filebeat/data:/usr/share/filebeat/data \
docker.elastic.co/beats/filebeat:7.6.1
5.5 查看启动日志是否成功
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker logs -f filebeat

file

从日志中看到文件夹没有权限,需要在宿主机给与权限

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
chmod 777 /usr/local/src/elk/filebeat/data

删掉容器,重新启动

file

OK! 到现在为止,基础软件安装完毕!

再次查看日志,看下是否在收集

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker logs -f filebeat

file

看样子 已经在我们所配置的路径进行收集日志并发送到logstsh了

六. kibana操作说明

创建索引模式,以便我们可以查看日志信息

file

file

file

file

OK! 大量的日志已经储存进来

七. 总结

本文章主要架构为:

filebeat读取logback日志文件,发送到logstash,再由logstash发送到es进行储存,最终kibana展示

可以做到代码无侵入性,随时用随时撤

注意: 软件启动顺序,先启动es,再启动kibana,logstash,filebeat

具体详细的介绍大家可以查一下资料,具体业务具体对待

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-03-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 小东IT技术分享 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
1 条评论
热度
最新
我照着文档做到3.3,然后logstash启动不起来,我把filter删了,把output下的if..都删了,然后logstash启来了。然后到4.5访问http://ip:5601,一直提示kibana还没有就绪,没有进行下去。不知道哪里出错了
我照着文档做到3.3,然后logstash启动不起来,我把filter删了,把output下的if..都删了,然后logstash启来了。然后到4.5访问http://ip:5601,一直提示kibana还没有就绪,没有进行下去。不知道哪里出错了
回复回复点赞举报
推荐阅读
编辑精选文章
换一批
ELK——使用Docker快速搭建
"ELK"是三个开源项目的首字母缩写,这三个项目分别是:Elasticsearch、Logstash 和 Kibana。Elasticsearch 是一个搜索和分析引擎。Logstash 是服务器端数据处理管道,能够同时从多个来源采集数据,转换数据,然后将数据发送到诸如 Elasticsearch 等"存储库"中。Kibana 则可以让用户在 Elasticsearch 中使用图形和图表对数据进行可视化,Elastic Stack 是 ELK Stack 的更新换代产品。 Docker镜像站 | Docker@Elastic Elasticsearch-7.6 | elasticsearch-7.6 Kibana-7.6 | kibana-7.6 Logstash-7.6 | logstash-7.6
思索
2024/08/16
2990
ELK——使用Docker快速搭建
使用 Docker Compose V2 快速搭建日志分析平台 ELK (Elasticsearch、Logstash 和 Kibana)
ELK的架构有多种,本篇分享使用的架构如图所示: Beats(Filebeat) -> -> Elasticsearch -> Kibana,目前生产环境一天几千万的日志,内存占用大概 10G 左右
易墨
2024/01/21
3.9K1
使用 Docker Compose V2 快速搭建日志分析平台 ELK (Elasticsearch、Logstash 和 Kibana)
构建ELKS日志收集
特别说明,Mac系统需要关闭SIP才可以正常使用!即便开启了,某些位置也可能导致你无法正常使用。去他妈的,本教程不适合Mac Apple Chip安装的Docker!!
收心
2022/11/18
7780
构建ELKS日志收集
利用elk日志分析系统收集history历史命令
上一篇文章, 利用elk系统记录分析所有服务器ssh登录信息 。本篇继续收集所有服务器的history命令历史,同时对集群做出优化。
IT不难
2022/05/27
5080
利用elk日志分析系统收集history历史命令
实战篇-Docker 安装ELK(单节点)
@派大星
2024/04/02
5290
实战篇-Docker 安装ELK(单节点)
【ES三周年】ELK保姆级安装部署教程
在后台开发中,日志系统是一个很重要的系统,一个架构良好的日志系统,可以帮助开发者更清楚的了解服务器的状态和系统安全状况,从而保证服务器的稳定运行。日志主要包括系统日志和应用程序日志,运维和开发人员可以通过日志了解服务器中软硬件的信息,检查应用程序或系统的故障,了解故障出现的原因,以便解决问题。
xiangzhihong
2022/11/16
4.5K0
【ES三周年】ELK保姆级安装部署教程
Filebeat+Kafka+Logstash+Elasticsearch+Kibana 构建日志分析系统
随着时间的积累,日志数据会越来越多,当你需要查看并分析庞杂的日志数据时,可通过 Filebeat+Kafka+Logstash+Elasticsearch 采集日志数据到Elasticsearch(简称ES)中,并通过 Kibana 进行可视化展示与分析。
高楼Zee
2021/09/23
2.1K0
Filebeat+Kafka+Logstash+Elasticsearch+Kibana 构建日志分析系统
kubernetes Filebeat+ELK日志收集监控方案
接收来自filebeat的数据,根据其中的tags进行分类,再添加index进行分类,例如nginx-access-%{+YYYY.MM.dd},在kibana中会根据这个index获取日志。
kubernetes中文社区
2019/06/24
3.2K0
kubernetes  Filebeat+ELK日志收集监控方案
Docker构建日志系统-ELK
日志在系统中扮演着监护人的身份,它是保障高可靠服务的基础,记录了系统的一举一动。运维层面、业务层面、安全层面都有日志的身影,系统监控、异常处理、安全、审计等都离不开日志的协助。
TestOps
2022/04/07
8920
Docker构建日志系统-ELK
容器部署日志分析平台ELK7.10.1(Elasisearch+Filebeat+Redis+Logstash+Kibana)
  ELK日志分析系统是Logstash、Elastcsearch、Kibana开源软件的集合,对外是作为一个日志管理系统的开源方案,它可以从任何来源、任何格式进行日志搜索、分析与可视化展示。
非著名运维
2022/06/22
1.3K0
容器部署日志分析平台ELK7.10.1(Elasisearch+Filebeat+Redis+Logstash+Kibana)
ELK+filebeat日志分析系统部署文档
filebeat部署在客户端用于收集日志并把收集到的日志发送到logstash. logstash把收集到的日志处理之后交给elasticsearch. kibana从elasticsearch中提取数据并进行展示. 之所以使用filebeat进行日志收集是因为filebeat不会像logstash使用大量的资源,影响业务服务器.
星哥玩云
2022/07/12
4450
ELK+filebeat日志分析系统部署文档
使用 Docker 搭建 ELK 环境
本文使用「署名 4.0 国际 (CC BY 4.0)」许可协议,欢迎转载、或重新修改使用,但需要注明来源。 署名 4.0 国际 (CC BY 4.0)
soulteary
2020/05/04
1.6K0
使用 Docker 搭建 ELK 环境
利用docker搭建ELK.md
本打算只有elastisearch、kibanan、logstash搭建下ELK,奈何logstash是运行太占内存,于是打算用filebeat(占用资源少)来在各服务器来收集日志,然后统一交给logstash来处理过滤。
晓果冻
2022/06/17
2890
利用docker搭建ELK.md
搭建ELK日志分析平台+Filebeat
一般我们需要进行日志分析场景:直接在日志文件中 grep、awk 就可以获得自己想要的信息。但在规模较大也就是日志量多而复杂的场景中,此方法效率低下,面临问题包括日志量太大如何归档、文本搜索太慢怎么办、如何多维度查询。需要集中化的日志管理,所有服务器上的日志收集汇总。常见解决思路是建立集中式日志收集系统,将所有节点上的日志统一收集,管理,访问。
子润先生
2021/07/08
1.4K0
EFK实战一 - 基础环境搭建
在分布式系统中,由于节点服务会部署多台,一旦出现线上问题需要通过日志分析定位问题就需要登录服务器一台一台进行日志检索,非常不便利,这时候就需要用到EFK日志收集工具。
JAVA日知录
2020/01/15
1.1K0
【ES三周年】 docker搭建elk初体验
这篇文章将着重于我对ELK的搭建初体验,基于部署和安装的方便,也为了巩固Docker相关的知识点的学习和熟练运行,尝试在使用Docker来搭建整个ELK系统。
猫老师的叶同学
2023/02/23
4810
在ELK+Filebeat搭建日志中心
当前环境 系统:centos7 docker 1.12.1 介绍 ElasticSearch Elasticsearch 是一个实时的分布式搜索和分析引擎,它可以用于全文搜索,结构化搜索以及分析。它是一个建立在全文搜索引擎 Apache Lucene 基础上的搜索引擎,使用 Java 语言编写。 Logstash Logstash 是一个具有实时渠道能力的数据收集引擎,主要用于日志的收集与解析,并将其存入 ElasticSearch中。 Kibana Kibana 是一款基于 Apache 开源协议,使用
Java架构
2018/05/04
1.4K0
在ELK+Filebeat搭建日志中心
Filebeat5+Kafka+ELK Docker搭建日志系统
纯粹是处于个人爱好,各种技术只要跟 Docker 搭边就倾爱它的 Docker 镜像版本。本文除了filebeat agent是二进制版本直接安装在应用机上,与docker无关,其他都是基于docker 镜像版本的集群安装。
曲水流觞
2019/11/05
9630
Filebeat5+Kafka+ELK Docker搭建日志系统
ELK日志分析系统安装和部署
1.1 平台环境: OS:CentOS release 6.4(Final) ElasticSearch:6.3.2 Logstash:6.3.2 Kibana:6.3.2 JRE:1.8
星哥玩云
2022/07/27
1.1K0
ELK日志分析系统安装和部署
Loki vs ELK:谁是日志收集的终极选择?
几个月前,我们的生产系统突然崩溃,所有服务不可用。我们有数十个微服务和数据库,日志堆积如山,想要快速找到问题源头却成了大难题。我们一开始使用的是经典的 ELK Stack,它强大但复杂,搜索效率也不太尽如人意。后来,我们尝试了 Loki,这个新生代的日志系统,给了我们一些意外的惊喜。
井九
2024/10/12
5230
相关推荐
ELK——使用Docker快速搭建
更多 >
加入讨论
的问答专区 >
1架构师擅长3个领域
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
    本文部分代码块支持一键运行,欢迎体验
    本文部分代码块支持一键运行,欢迎体验