共计 2702 个字符,预计需要花费 7 分钟才能阅读完成。
EFK 不是一个软件,而是一套解决方案,并且都是开源软件,之间互相配合使用,完美衔接,高效的满足了很多场合的应用,是目前主流的一种日志系统。EFK 是三个开源软件的缩写,分别表示:Elasticsearch , Fluentd, Kibana
组件说明:
EFK 由 ElasticSearch、Fluentd 和 Kiabana 三个开源工具组成。
1、其中 Elasticsearch 是一款分布式搜索引擎,能够用于日志的检索
2、Fluentd 是一个实时开源的数据收集器,
3、Kibana 是一款能够为 Elasticsearch 提供分析和可视化的 Web 平台。
这三款开源工具的组合为日志数据提供了分布式的实时搜集与分析的监控系统。
一、环境准备
# 资源配置:
Master: 4U4G
Node-1: 4U4G
Node-2: 4U4G
mkdir efk
cd efk
kubectl create namespace efk
添加 Google incubator 仓库:
helm repo add bitnami https://charts.bitnami.com/bitnami
二、部署 Elasticsearch
helm fetch bitnami/elasticsearch
tar zxvf elasticsearch-12.3.1.tgz
cd elasticsearch/
vim values.yaml
# 因为是实验环境,需要修改一下配置文件,否则可能会因为资源问题而导致实验失败
volumePermissions:
enabled: false # 修改为“false”
image:
registry: docker.io
repository: bitnami/minideb
tag: buster
pullPolicy: Always
master:
name: master
replicas: 1 # 修改为“1”
persistence:
enabled: false # 修改为“false”
coordinating:
replicas: 1 # 修改为“1”
updateStrategy:
type: RollingUpdate
data:
name: data
replicas: 1 # 修改为“1”
persistence:
enabled: false # 修改为“false”
# 保存退出
helm install . --name ela --namespace=efk -f values.yaml
# 测试一下:
kubectl run cirror-$RANDOM --rm -it --image=cirros -- /bin/sh
curl Elasticsearch:Port/_cat/nodes
完成后我们查看一下:
三、部署 Fluentd
helm fetch stable/fluentd
tar zxvf fluentd-2.4.1.tgz
cd fluentd
vim values.yaml
# 更改其中 Elasticsearch 访问地址
elasticsearch:
host: 'es-elasticsearch-coordinating-only' # 修改地址
port: 9200
scheme: 'http'
ssl_version: TLSv1_2
buffer_chunk_limit: 2M
buffer_queue_limit: 8
logstash_prefix: 'logstash'
在 system.conf 上方添加下列代码:
containers.input.conf: |-
<source>
@id fluentd-containers.log
@type tail
path /var/log/containers/*.log
pos_file /var/log/es-containers.log.pos
tag raw.kubernetes.*
read_from_head true
<parse>
@type multi_format
<pattern>
format json
time_key time
time_format %Y-%m-%dT%H:%M:%S.%NZ
</pattern>
<pattern>
format /^(?<time>.+) (?<stream>stdout|stderr) [^ ]* (?<log>.*)$/
time_format %Y-%m-%dT%H:%M:%S.%N%:z
</pattern>
</parse>
</source>
<match raw.kubernetes.**>
@id raw.kubernetes
@type detect_exceptions
remove_tag_prefix raw
message log
stream stream
multiline_flush_interval 5
max_bytes 500000
max_lines 1000
</match>
vim templates/deployment.yaml 在 volumeMounts 与 volumes 下方进行挂载:
volumeMounts:
- name: varlog
mountPath: /var/log
- name: dockercontainers
mountPath: /var/lib/docker/containers
readOnly: true
volumes:
- name: varlog
hostPath:
path: /var/log
- name: dockercontainers
hostPath:
path: /var/lib/docker/containers
helm install . --name flu --namespace=efk -f values.yaml
完成后查看:
四、部署 kibana
helm fetch bitnami/kibana
# 这里要特别注意一下,Kibana 的版本要与 Elasticsearch 的版本一直,否则会出错,需要特别、特别注意
tar zxvf kibana-5.1.2.tgz
cd kibana/
vim values.yaml
# 更改其中 Elasticsearch 访问地址
# 更改 Service 中的 ClusterIP 为 NodePort
elasticsearch:
hosts:
- es-elasticsearch-coordinating-only
port: 9200
service:
port: 80
type: NodePort
volumePermissions:
enabled: false
helm install . --name kia --namespace=efk -f values.yaml
完成后查看效果:
通过暴露的端口号,进行 WEB 访问:
创建一下索引序列:
我们来以时间为例,创建索引:
通过时间序列分片:
分片成功:
查看我们收集的日志信息:
正文完
星哥玩云-微信公众号