前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >【ES三周年】ELK保姆级安装部署教程

【ES三周年】ELK保姆级安装部署教程

作者头像
xiangzhihong
修改于 2023-08-11 01:40:10
修改于 2023-08-11 01:40:10
4.3K02
代码可运行
举报
文章被收录于专栏:向治洪向治洪
运行总次数:2
代码可运行

一、ELK简介

在后台开发中,日志系统是一个很重要的系统,一个架构良好的日志系统,可以帮助开发者更清楚的了解服务器的状态和系统安全状况,从而保证服务器的稳定运行。日志主要包括系统日志和应用程序日志,运维和开发人员可以通过日志了解服务器中软硬件的信息,检查应用程序或系统的故障,了解故障出现的原因,以便解决问题。

目前,在大型的后端架构中,一个标准的数据采集方案通常被称为ELK,即ElasticSearch、Logstash和Kibana。

  • Elasticsearch:分布式搜索引擎。具有高可伸缩、高可靠、易管理等特点,可用于全文检索、结构化检索和分析,并能将这三者结合起来。Elasticsearch 使用Java 基于 Lucene 开发,是现在使用最广的开源搜索引擎之一,Wikipedia 、StackOverflow、Github 等都基于它来构建的。
  • Logstash:数据收集处理引擎。支持动态的从各种数据源搜集数据,并对数据进行过滤、分析、丰富、统一格式等操作,然后存储以供后续使用。
  • Kibana:可视化化平台。它能够搜索、展示存储在 Elasticsearch 中索引数据。使用它可以很方便的用图表、表格、地图展示和分析数据。

当然,除了ELK,行业内还有一些轻量型数据采集方案,比如Beats、Loki。

  • Filebeat:轻量级数据收集引擎。相对于Logstash所占用的系统资源来说,Filebeat 所占用的系统资源几乎是微乎及微。它是基于原先 Logstash-fowarder 的源码改造出来。换句话说:Filebeat就是新版的 Logstash-fowarder,也会是 ELK Stack 在 Agent 的第一选择。

二、ELK常见架构

在实际使用ELK有几种常见的架构方式:

  • Elasticsearch + Logstash + Kibana:这种架构,通过Logstash收集日志,Elasticsearch分析日志,然后在Kibana中展示数据。这种架构虽然是官网介绍里的方式,但是在生产中却很少使用。
  • Elasticsearch + Logstash + filebeat + Kibana:与上一种架构相比,增加了一个filebeat模块。filebeat是一个轻量的日志收集代理,用来部署在客户端,优势是消耗非常少的资源(较logstash)就能够收集到日志。所以在生产中,往往会采取这种架构方式,但是这种架构有一个缺点,当logstash出现故障, 会造成日志的丢失。
  • Elasticsearch + Logstash + filebeat + redis + Kibana:此种架构是上面架构的完善版,通过增加中间件,来避免数据的丢失。当Logstash出现故障,日志还是存在中间件中,当Logstash再次启动,则会读取中间件中积压的日志。

所以,我们此次选择Elasticsearch + Logstash + filebeat + Kibana架构来进行演示。

三、安装与部署

3.1 Elasticsearch

elasticsearch的主要作用就是全文检索、结构化检索和分析。首先,安装Docker,并创建docker网络。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker network create -d bridge elastic

然后,拉取elasticsearch,此处使用的是8.4.3版本。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker pull elasticsearch:8.4.3

接着,执行docker脚本。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker run -it \
    -p 9200:9200 \
    -p 9300:9300 \
    --name elasticsearch \
    --net elastic \
    -e ES_JAVA_OPTS="-Xms1g -Xmx1g" \
    -e "discovery.type=single-node" \
    -e LANG=C.UTF-8 \
    -e LC_ALL=C.UTF-8 \
    elasticsearch:8.4.3

注意,第一次执行脚本不要加-d这个参数,否则看不到服务首次运行时生成的随机密码和随机enrollment token。我们需要将生成的随机密码和token保存起来,以便后面使用。

接着,创建一个Elasticsearch挂载目录,并给创建的文件夹授权。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mkdir /home/xxx/elk8.4.3/elasticsearch
sudo chown -R 1000:1000 /home/xxx/elk8.4.3/elasticsearch

接下来,我们将容器内的文件复制到主机上,涉及的命令如下。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker cp elasticsearch:/usr/share/elasticsearch/config /home/xxx/elk8.4.3/elasticsearch/        
docker cp elasticsearch:/usr/share/elasticsearch/data /home/xxx/elk8.4.3/elasticsearch/
docker cp elasticsearch:/usr/share/elasticsearch/plugins /home/xxx/elk8.4.3/elasticsearch/
docker cp elasticsearch:/usr/share/elasticsearch/logs /home/xxx/elk8.4.3/elasticsearch/

如果要删除容器中的内容,那么可以使用rm -f。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker rm -f elasticsearch

然后,我们修改docker脚本,增加-v挂载目录和-d参数。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker run -it \
    -d \
    -p 9200:9200 \
    -p 9300:9300 \
    --name elasticsearch \
    --net elastic \
    -e ES_JAVA_OPTS="-Xms1g -Xmx1g" \
    -e "discovery.type=single-node" \
    -e LANG=C.UTF-8 \
    -e LC_ALL=C.UTF-8 \
    -v /home/xxx/elk8.4.3/elasticsearch/config:/usr/share/elasticsearch/config \
    -v /home/xxx/elk8.4.3/elasticsearch/data:/usr/share/elasticsearch/data \
    -v /home/xxx/elk8.4.3/elasticsearch/plugins:/usr/share/elasticsearch/plugins \
    -v /home/xxx/elk8.4.3/elasticsearch/logs:/usr/share/elasticsearch/logs \
    elasticsearch:8.4.3

打开配置文件elasticsearch.yml,具体位于/home/xxx/elk8.4.3/elasticsearch/config/elasticsearch.yml文件中。并且需要将xpack.monitoring.collection.enabled配置设置成true,添加这个配置以后在kibana中才会显示联机状态,否则会显示脱机状态,如下图所示。

最后,我们再重启Docker容器,使上面的配置生效。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker restart elasticsearch

接下来,我们打开https://ip:9200进行测试。其中,用户名是elastic, 密码是第一次启动时保存下来的信息中生成的密码。

3.2 Kibana

Kibana是一个可视化化平台,它能够搜索、展示存储在 Elasticsearch 中索引数据。首先,在Docker中拉取镜像。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker pull kibana:8.4.3

接着,在docker中执行启动脚本命令。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker run -it \
	-d \
	--restart=always \
	--log-driver json-file \
	--log-opt max-size=100m \
	--log-opt max-file=2 \
	--name kibana \
	-p 5601:5601 \
	--net elastic \
	kibana:8.4.3

和elasticsearch的创建过程类似,kibana需要创建挂载目录,然后给创建的文件授权。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mkdir /home/xxx/elk8.4.3/kibana
sudo chown -R 1000:1000 /home/xxx/elk8.4.3/kibana

然后,再使用下面的命令将容器内的文件复制到主机上。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker cp kibana:/usr/share/kibana/config /home/xxx/elk8.4.3/kibana/        
docker cp kibana:/usr/share/kibana/data /home/xxx/elk8.4.3/kibana/        
docker cp kibana:/usr/share/kibana/plugins /home/xxx/elk8.4.3/kibana/        
docker cp kibana:/usr/share/kibana/logs /home/xxx/elk8.4.3/kibana/        

接下来,修改kibana.yml配置文件,配置文件的路径为/home/xxx/elk8.4.3/kibana/config/kibana.yml,主要修改的内容包括:

  • i18n.locale: “zh-CN”
  • elasticsearch.hosts: [‘https://172.20.0.2:9200’],将IP改成elasticsearch的docker ip,注意一定要用https
  • xpack.fleet.outputs: [{id: fleet-default-output, name: default, is_default: true, is_default_monitoring: true, type: elasticsearch, hosts: [‘https://172.20.0.2:9200’], ca_trusted_fingerprint: xxxxxxxxxx}]

如果我们要删除kibana,可以使用下面的命令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker rm -f kibana

然后,我们修改docker启动脚本,增加挂载目录。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker run -it \
	-d \
	--restart=always \
	--log-driver json-file \
	--log-opt max-size=100m \
	--log-opt max-file=2 \
	--name kibana \
	-p 5601:5601 \
	--net elastic \
	-v /home/xxx/elk8.4.3/kibana/config:/usr/share/kibana/config \
	-v /home/xxx/elk8.4.3/kibana/data:/usr/share/kibana/data \
	-v /home/xxx/elk8.4.3/kibana/plugins:/usr/share/kibana/plugins \
	-v /home/xxx/elk8.4.3/kibana/logs:/usr/share/kibana/logs \
	kibana:8.4.3

如果我们想要查看kibana中的日志,可以使用下面的命令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker logs -f kibana

然后打开浏览器,输入地址:http://ip:5601,使用elastic用户的密码进行认证登录。

如果忘记token了,可以重置token进入容器执行。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
/bin/elasticsearch-create-enrollment-token -s kibana --url "https://127.0.0.1:9200"    

输入token以后会看到一个验证码框,验证码从kibana的日志中获取。

然后,再次输入用户名elastic,密码是第一次启动elasticsearch保存的密码就可以登录到kibana后台了。

3.3 Logstash

Logstash是数据收集处理引擎,支持动态的从各种数据源搜集数据,并对数据进行过滤、分析、丰富、统一格式等操作,然后存储以供后续使用。首先,我们在容器中安装logstash,注意版本号的一致性。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker pull logstash:8.4.3

然后,在docker执行启动脚本。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker run -it \
	-d \
	--name logstash \
	-p 9600:9600 \
	-p 5044:5044 \
	--net elastic \
	logstash:8.4.3

接着,再创建logstash挂载目录,并且给创建的文件授权。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mkdir /home/xxx/elk8.4.3/logstash
sudo chown -R 1000:1000 /home/xxx/elk8.4.3/logstash

接着,将容器内的文件复制到主机上。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker cp logstash:/usr/share/logstash/config /home/xxx/elk8.4.3/logstash/ 
docker cp logstash:/usr/share/logstash/pipeline /home/xxx/elk8.4.3/logstash/ 

然后,我们将/home/xxx/elk8.4.3/logstash/elasticsearch/config/certs复制到/home/xxx/elk8.4.3/logstash/config/certs。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo cp /home/xxx/elk8.4.3/logstash/elasticsearch/config/certs /home/xxx/elk8.4.3/logstash/config/certs

修改logstash.yml的文件的默认配置,配置文件的路径为:/home/xxx/elk8.4.3/logstash/config/logstash.yml。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
http.host: "0.0.0.0"
xpack.monitoring.enabled: true
xpack.monitoring.elasticsearch.hosts: [ "https://172.20.0.2:9200" ]
xpack.monitoring.elasticsearch.username: "elastic"
xpack.monitoring.elasticsearch.password: "第一次启动elasticsearch是保存的信息中查找"
xpack.monitoring.elasticsearch.ssl.certificate_authority: "/usr/share/logstash/config/certs/http_ca.crt"
xpack.monitoring.elasticsearch.ssl.ca_trusted_fingerprint: "第一次启动elasticsearch是保存的信息中查找"

需要注意的是,https://172.20.0.2:9200必须是https,IP是elasticsearch的docker IP。接着,再修改logstash.conf配置,目录为/home/xxx/elk8.4.3/logstash/pipeline/logstash.conf。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
input {
  beats {
    port => 5044
  }
}


filter {
  date {
    match => [ "@timestamp", "yyyy-MM-dd HH:mm:ss Z" ]
  }
  mutate {
    remove_field => ["@version", "agent", "cloud", "host", "input", "log", "tags", "_index", "_source", "ecs", "event"]
  }
}


output {
  elasticsearch {
    hosts => ["https://172.20.0.2:9200"]
    index => "server-%{+YYYY.MM.dd}"
    ssl => true
    ssl_certificate_verification => false
    cacert => "/usr/share/logstash/config/certs/http_ca.crt"
    ca_trusted_fingerprint => "第一次启动elasticsearch是保存的信息中查找"
    user => "elastic"
    password => "第一次启动elasticsearch是保存的信息中查找"
  }
}

如果需要删除Docker容器中的logstash,可以使用下面的命令:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker rm -f logstash

接着,再修改docker启动命令,加上-v挂载目录。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker run -it \
	-d \
	--name logstash \
	-p 9600:9600 \
	-p 5044:5044 \
	--net elastic \
	-v /home/appuser/docker-images/elk8_4_3/logstash/config:/usr/share/logstash/config \
	-v /home/appuser/docker-images/elk8_4_3/logstash/pipeline:/usr/share/logstash/pipeline \
	logstash:8.4.3

3.4 filebeat

Filebeat是一个轻量级数据收集引擎,相对于Logstash所占用的系统资源来说,Filebeat 所占用的系统资源几乎是微乎及微,主要是为了解决logstash数据丢失的场景。首先,在Docker中安装Filebeat镜像。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker pull elastic/filebeat:8.4.3

然后,执行docker启动脚本。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker run -it \
	-d \
	--name filebeat \
	--network host \
	-e TZ=Asia/Shanghai \
	elastic/filebeat:8.4.3 \
	filebeat -e  -c /usr/share/filebeat/filebeat.yml

接着,创建filebeat挂载目录,并给创建的文件授权。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mkdir /home/xxx/elk8.4.3/filebeat
sudo chown -R 1000:1000 /home/xxx/elk8.4.3/filebeat

然后,将容器内的文件复制到主机上。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker cp filebeat:/usr/share/filebeat/filebeat.yml /home/xxx/elk8.4.3/filebeat/ 
docker cp filebeat:/usr/share/filebeat/data /home/xxx/elk8.4.3/filebeat/ 
docker cp filebeat:/usr/share/filebeat/logs /home/xxx/elk8.4.3/filebeat/ 

接着,修改filebeat.yml配置文件,目录为/home/xxx/elk8.4.3/filebeat/filebeat.yml。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
filebeat.config:
  modules:
    path: ${path.config}/modules.d/*.yml
    reload.enabled: false


processors:
  - add_cloud_metadata: ~
  - add_docker_metadata: ~


output.logstash:
  enabled: true
  # The Logstash hosts
  hosts: ["localhost:5044"]


filebeat.inputs:
- type: log
  enabled: true
  paths:
    - /usr/share/filebeat/target/*/*/*.log. # 这个路径是需要收集的日志路径,是docker容器中的路径
  scan_frequency: 10s
  exclude_lines: ['HEAD']
  exclude_lines: ['HTTP/1.1']
  multiline.pattern: '^[[:space:]]+(at|.{3})\b|Exception|捕获异常'
  multiline.negate: false
  multiline.match: after

如果要删除容器中的Filebeat,使用如下命令。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker rm -f filebeat

接着,修改docker启动脚本,增加-v挂载目录。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
docker run -it \
	-d \
	--name filebeat \
	--network host \
	-e TZ=Asia/Shanghai \
	-v /home/xxx/log:/usr/share/filebeat/target \
	-v /home/xxx/elk8.4.3/filebeat/filebeat.yml:/usr/share/filebeat/filebeat.yml \
	-v /home/xxx/elk8.4.3/filebeat/data:/usr/share/filebeat/data \
  -v /home/xxx/elk8.4.3/filebeat/logs:/usr/share/filebeat/logs \
	elastic/filebeat:8.4.3 \
	filebeat -e  -c /usr/share/filebeat/filebeat.yml

需要注意的是, -v /home/xxx/log:/usr/share/filebeat/target 这个是需要收集的日志目录,需要挂载到容器中。

3.5 最终效果

完成前面软件的安装后,ELK所需的软件就安装完成。接下来,我们登录kibana就可以查看信息了。

然后,我们打开索引,打开Stack Manager。如果能看到自己配置的索引说明安装配置成功。

如果还没有日志,可以先创建数据视图,然后选择创建的索引。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022-11-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
ELK完整部署教程
ELK: Elasticsearch + Logstash + Kibana. 实际部署: Elasticsearch + Kibana + Logstash + (各种beats) filebeat
繁华是客
2024/05/10
4570
Docker 入门到实战教程(十二)ELK+Filebeat搭建日志分析系统
一般我们需要进行日志分析场景:直接在日志文件中 grep、awk 就可以获得自己想要的信息。但在规模较大的场景中,此方法效率低下,面临问题包括日志量太大如何归档、文本搜索太慢怎么办、如何多维度查询。需要集中化的日志管理,所有服务器上的日志收集汇总。常见解决思路是建立集中式日志收集系统,将所有节点上的日志统一收集,管理,访问。
小东啊
2020/07/23
4.7K1
Docker 入门到实战教程(十二)ELK+Filebeat搭建日志分析系统
实战篇-Docker 安装ELK(单节点)
@派大星
2024/04/02
5130
实战篇-Docker 安装ELK(单节点)
容器部署日志分析平台ELK7.10.1(Elasisearch+Filebeat+Redis+Logstash+Kibana)
  ELK日志分析系统是Logstash、Elastcsearch、Kibana开源软件的集合,对外是作为一个日志管理系统的开源方案,它可以从任何来源、任何格式进行日志搜索、分析与可视化展示。
非著名运维
2022/06/22
1.3K0
容器部署日志分析平台ELK7.10.1(Elasisearch+Filebeat+Redis+Logstash+Kibana)
Docker Compose 部署 ELK
ELK 是三个开源项目的首字母缩写,这三个项目分别是:Elasticsearch、Logstash 和 Kibana。
YP小站
2020/06/04
1.8K0
kubernetes Filebeat+ELK日志收集监控方案
接收来自filebeat的数据,根据其中的tags进行分类,再添加index进行分类,例如nginx-access-%{+YYYY.MM.dd},在kibana中会根据这个index获取日志。
kubernetes中文社区
2019/06/24
3.2K0
kubernetes  Filebeat+ELK日志收集监控方案
Linux安装ELK日志平台(7.5.1)
一般我们需要进行日志分析场景:直接在日志文件中 grep、awk 就可以获得自己想要的信息。但在规模较大也就是日志量多而复杂的场景中,此方法效率低下,面临问题包括日志量太大如何归档、文本搜索太慢怎么办、如何多维度查询。需要集中化的日志管理,所有服务器上的日志收集汇总。常见解决思路是建立集中式日志收集系统,将所有节点上的日志统一收集,管理,访问。
子润先生
2021/07/07
1.8K1
EFK实战一 - 基础环境搭建
在分布式系统中,由于节点服务会部署多台,一旦出现线上问题需要通过日志分析定位问题就需要登录服务器一台一台进行日志检索,非常不便利,这时候就需要用到EFK日志收集工具。
JAVA日知录
2020/01/15
1.1K0
日志分析平台ELK 7.0时代来了
集群架构图 1. Elasticsearch集群部署 1.1 初始化java组件 # 安装jdk root@es-logs-20-114:/usr/local# ls -l | grep jdk lrwxrwxrwx 1 root root 22 Apr 1 2017 jdk -> /usr/local/jdk1.8.0_65 drwxr-xr-x 8 root root 4096 Nov 25 2015 jdk1.8.0_65 # 配置java环境变量 export JAVA_HOME
公众号: 云原生生态圈
2021/11/15
3510
日志分析平台ELK 7.0时代来了
ELK+kafka+Filebeat
软件包官方下载地址:https://www.elastic.co/cn/downloads/ 2、部署ElasticSearch
@凌晨
2021/01/29
6450
ELK+kafka+Filebeat
Elasticsearch实践:ELK+Kafka+Beats对日志收集平台的实现
当我们在开源日志分析系统的领域,谈及 ELK 架构可谓是家喻户晓。然而,这个生态系统并非 Elastic 有意为之,毕竟 Elasticsearch 的初衷是作为一个分布式搜索引擎。其广泛应用于日志系统,实则是一种意料之外,这是社区用户的推动所致。如今,众多云服务厂商在推广自己的日志服务时,往往以 ELK 作为参照标准,由此可见,ELK 的影响力之深远。
栗筝i
2023/10/23
1.7K0
Elasticsearch实践:ELK+Kafka+Beats对日志收集平台的实现
利用docker搭建ELK.md
本打算只有elastisearch、kibanan、logstash搭建下ELK,奈何logstash是运行太占内存,于是打算用filebeat(占用资源少)来在各服务器来收集日志,然后统一交给logstash来处理过滤。
晓果冻
2022/06/17
2830
利用docker搭建ELK.md
【ES三周年】 docker搭建elk初体验
这篇文章将着重于我对ELK的搭建初体验,基于部署和安装的方便,也为了巩固Docker相关的知识点的学习和熟练运行,尝试在使用Docker来搭建整个ELK系统。
猫老师的叶同学
2023/02/23
4740
Kubernetes中部署ELK Stack日志收集平台
ELK是Elasticsearch、Logstash、Kibana三大开源框架首字母大写简称。市面上也被称为Elastic Stack。其中Elasticsearch是一个基于Lucene、分布式、通过Restful方式进行交互的近实时搜索平台框架。像类似百度、谷歌这种大数据全文搜索引擎的场景都可以使用Elasticsearch作为底层支持框架,可见Elasticsearch提供的搜索能力确实强大,市面上很多时候我们简称Elasticsearch为es。Logstash是ELK的中央数据流引擎,用于从不同目标(文件/数据存储/MQ)收集的不同格式数据,经过过滤后支持输出到不同目的地(文件/MQ/redis/elasticsearch/kafka等)。Kibana可以将elasticsearch的数据通过友好的页面展示出来,提供实时分析的功能。
没有故事的陈师傅
2021/07/21
1.7K6
容器部署ELK7.10,适用于生产
一、elk架构简介 首先 logstash 具有日志采集、过滤、筛选等功能,功能完善但同时体量也会比较大,消耗系统资源自然也多。filebeat作为一个轻量级日志采集工具,虽然没有过滤筛选功能,但是仅
YP小站
2021/01/29
1.9K0
容器部署ELK7.10,适用于生产
ELK——使用Docker快速搭建
"ELK"是三个开源项目的首字母缩写,这三个项目分别是:Elasticsearch、Logstash 和 Kibana。Elasticsearch 是一个搜索和分析引擎。Logstash 是服务器端数据处理管道,能够同时从多个来源采集数据,转换数据,然后将数据发送到诸如 Elasticsearch 等"存储库"中。Kibana 则可以让用户在 Elasticsearch 中使用图形和图表对数据进行可视化,Elastic Stack 是 ELK Stack 的更新换代产品。 Docker镜像站 | Docker@Elastic Elasticsearch-7.6 | elasticsearch-7.6 Kibana-7.6 | kibana-7.6 Logstash-7.6 | logstash-7.6
思索
2024/08/16
2790
ELK——使用Docker快速搭建
使用 Docker Compose V2 快速搭建日志分析平台 ELK (Elasticsearch、Logstash 和 Kibana)
ELK的架构有多种,本篇分享使用的架构如图所示: Beats(Filebeat) -> -> Elasticsearch -> Kibana,目前生产环境一天几千万的日志,内存占用大概 10G 左右
易墨
2024/01/21
3.8K1
使用 Docker Compose V2 快速搭建日志分析平台 ELK (Elasticsearch、Logstash 和 Kibana)
7000 字 | 20 图 | 一文带你搭建一套 ELK Stack 日志平台
最近在折腾 ELK 日志平台,它是 Elastic 公司推出的一整套日志收集、分析和展示的解决方案。
悟空聊架构
2022/05/13
8730
7000 字 | 20 图 | 一文带你搭建一套 ELK Stack 日志平台
利用elk日志分析系统收集history历史命令
上一篇文章, 利用elk系统记录分析所有服务器ssh登录信息 。本篇继续收集所有服务器的history命令历史,同时对集群做出优化。
IT不难
2022/05/27
4910
利用elk日志分析系统收集history历史命令
手把手教你在CentOS上安装ELK,对服务器日志进行收集
ELK 不是一款软件,而是 Elasticsearch、Logstash 和 Kibana 三种软件产品的首字母缩写。这三者都是开源软件,通常配合使用,而且又先后归于 Elastic.co 公司名下,所以被简称为 ELK Stack。根据 Google Trend 的信息显示,ELK Stack 已经成为目前最流行的集中式日志解决方案。
Java极客技术
2022/12/02
4.3K0
手把手教你在CentOS上安装ELK,对服务器日志进行收集
推荐阅读
相关推荐
ELK完整部署教程
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档