# CentOS7下如何快速部署EFK服務
## 前言
在當今大數據時代,日志管理已成為IT系統運維和業務分析的重要環節。傳統的日志管理方式如直接查看日志文件、使用grep等命令進行簡單過濾已經無法滿足企業級應用的需求。EFK(Elasticsearch + Fluentd + Kibana)堆棧作為新一代的日志收集、存儲和可視化解決方案,憑借其高性能、可擴展性和易用性,已成為眾多企業的首選方案。
本文將詳細介紹在CentOS7操作系統下如何快速部署EFK服務,涵蓋從環境準備到各個組件的安裝配置,再到最終的集成測試全過程。通過本文的指導,讀者可以在短時間內搭建起一套完整的日志管理系統,滿足企業級日志處理需求。
## 第一章:EFK架構概述
### 1.1 EFK組件介紹
EFK由三個核心組件組成,每個組件承擔不同的角色:
1. **Elasticsearch**:分布式搜索和分析引擎,負責日志的存儲、索引和檢索
- 基于Lucene構建,提供近實時的搜索能力
- 支持水平擴展,可處理PB級數據
- 提供RESTful API接口,便于集成
2. **Fluentd**:開源數據收集器,負責日志的收集、過濾和轉發
- 采用插件式架構,支持多種輸入輸出方式
- 提供強大的日志過濾和轉換能力
- 內存占用低,性能優異
3. **Kibana**:數據可視化平臺,提供日志分析和展示功能
- 豐富的圖表類型和儀表板功能
- 支持交互式查詢和數據分析
- 用戶友好的界面,降低使用門檻
### 1.2 EFK與傳統方案的對比
相比傳統的ELK(使用Logstash)架構,EFK具有以下優勢:
| 特性 | EFK (Fluentd) | ELK (Logstash) |
|---------------|---------------------|---------------------|
| 資源占用 | 內存占用低(~40MB) | 內存占用高(~500MB) |
| 性能 | 高吞吐量 | 相對較低 |
| 可靠性 | 內置重試機制 | 需要額外配置 |
| 部署復雜度 | 簡單 | 較復雜 |
| 插件生態 | 豐富 | 非常豐富 |
### 1.3 EFK工作流程
典型的EFK日志處理流程如下:
1. **日志收集**:Fluentd從各種數據源(應用日志、系統日志、網絡設備日志等)收集日志數據
2. **日志處理**:Fluentd對收集到的日志進行解析、過濾和格式化
3. **日志存儲**:處理后的日志被發送到Elasticsearch進行索引和存儲
4. **日志展示**:用戶通過Kibana查詢、分析和可視化日志數據
## 第二章:環境準備
### 2.1 系統要求
在開始部署前,請確保您的CentOS7系統滿足以下要求:
- **硬件配置**:
- 最低配置:2核CPU,4GB內存,50GB磁盤空間
- 生產環境推薦:8核CPU,16GB內存,500GB+ SSD存儲
- **軟件環境**:
- CentOS 7.6或更高版本
- JDK 11或更高版本(Elasticsearch依賴)
- Ruby 2.4+(Fluentd依賴)
### 2.2 系統初始化配置
#### 2.2.1 更新系統
```bash
sudo yum update -y
sudo yum install -y epel-release
sudo setenforce 0
sudo sed -i 's/^SELINUX=enforcing$/SELINUX=permissive/' /etc/selinux/config
sudo systemctl start firewalld
sudo firewall-cmd --add-port={9200/tcp,5601/tcp,24224/tcp,24224/udp} --permanent
sudo firewall-cmd --reload
編輯/etc/sysctl.conf
,添加以下內容:
vm.max_map_count=262144
fs.file-max=65536
應用配置:
sudo sysctl -p
Elasticsearch依賴Java環境,推薦安裝OpenJDK 11:
sudo yum install -y java-11-openjdk java-11-openjdk-devel
驗證安裝:
java -version
sudo rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch
創建倉庫文件/etc/yum.repos.d/elasticsearch.repo
:
[elasticsearch-7.x]
name=Elasticsearch repository for 7.x packages
baseurl=https://artifacts.elastic.co/packages/7.x/yum
gpgcheck=1
gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
enabled=1
autorefresh=1
type=rpm-md
sudo yum install -y elasticsearch
編輯主配置文件/etc/elasticsearch/elasticsearch.yml
:
cluster.name: efk-cluster
node.name: node-1
path.data: /var/lib/elasticsearch
path.logs: /var/log/elasticsearch
network.host: 0.0.0.0
http.port: 9200
discovery.seed_hosts: ["127.0.0.1"]
cluster.initial_master_nodes: ["node-1"]
bootstrap.memory_lock: true
配置JVM參數(/etc/elasticsearch/jvm.options
):
-Xms2g
-Xmx2g
sudo systemctl daemon-reload
sudo systemctl enable elasticsearch
sudo systemctl start elasticsearch
curl -X GET "localhost:9200/"
正常輸出示例:
{
"name" : "node-1",
"cluster_name" : "efk-cluster",
"cluster_uuid" : "xxxxxxxx",
"version" : {
"number" : "7.10.2",
"build_flavor" : "default",
"build_type" : "rpm",
"build_hash" : "xxxxxx",
"build_date" : "2021-01-13T00:42:12.435326Z",
"build_snapshot" : false,
"lucene_version" : "8.7.0",
"minimum_wire_compatibility_version" : "6.8.0",
"minimum_index_compatibility_version" : "6.0.0-beta1"
},
"tagline" : "You Know, for Search"
}
編輯/etc/systemd/system/multi-user.target.wants/elasticsearch.service
,添加:
[Service]
LimitMEMLOCK=infinity
重新加載配置:
sudo systemctl daemon-reload
sudo systemctl restart elasticsearch
對于日志類數據,建議配置索引生命周期策略:
curl -X PUT "localhost:9200/_ilm/policy/log_policy" -H 'Content-Type: application/json' -d'
{
"policy": {
"phases": {
"hot": {
"actions": {
"rollover": {
"max_size": "50GB",
"max_age": "30d"
}
}
},
"delete": {
"min_age": "90d",
"actions": {
"delete": {}
}
}
}
}
}
'
curl -L https://toolbelt.treasuredata.com/sh/install-redhat-td-agent4.sh | sh
sudo /usr/sbin/td-agent-gem install fluent-plugin-elasticsearch
sudo /usr/sbin/td-agent-gem install fluent-plugin-multi-format-parser
編輯主配置文件/etc/td-agent/td-agent.conf
:
<source>
@type forward
port 24224
bind 0.0.0.0
</source>
<source>
@type tail
path /var/log/messages
pos_file /var/log/td-agent/syslog.log.pos
tag system.syslog
<parse>
@type syslog
</parse>
</source>
<filter system.**>
@type record_transformer
<record>
hostname ${hostname}
</record>
</filter>
<match system.**>
@type elasticsearch
host localhost
port 9200
logstash_format true
logstash_prefix system
logstash_dateformat %Y.%m.%d
include_tag_key true
type_name fluentd
<buffer>
@type file
path /var/log/td-agent/buffer/elasticsearch
flush_interval 10s
</buffer>
</match>
sudo systemctl enable td-agent
sudo systemctl start td-agent
發送測試日志:
echo '{"message":"test log"}' | fluent-cat debug.test
檢查Elasticsearch中是否已創建索引:
curl -X GET "localhost:9200/_cat/indices?v"
sudo yum install -y kibana
編輯配置文件/etc/kibana/kibana.yml
:
server.port: 5601
server.host: "0.0.0.0"
server.name: "efk-kibana"
elasticsearch.hosts: ["http://localhost:9200"]
kibana.defaultAppId: "discover"
logging.dest: /var/log/kibana/kibana.log
sudo systemctl enable kibana
sudo systemctl start kibana
在瀏覽器中訪問:http://<your-server-ip>:5601
system-*
@timestamp
system-*
索引模式<system>
workers 4
</system>
<match system.**>
@type elasticsearch
# ...其他配置...
<buffer>
@type file
path /var/log/td-agent/buffer/elasticsearch
chunk_limit_size 8MB
total_limit_size 4GB
flush_interval 5s
retry_max_interval 30
retry_forever true
</buffer>
</match>
在其他服務器上重復Elasticsearch安裝步驟,修改配置文件:
cluster.name: efk-cluster
node.name: node-2
discovery.seed_hosts: ["node1-ip"]
cluster.initial_master_nodes: ["node-1"]
curl -X PUT "localhost:9200/_template/log_template" -H 'Content-Type: application/json' -d'
{
"index_patterns": ["system-*"],
"settings": {
"number_of_shards": 3,
"number_of_replicas": 1
}
}
'
編輯elasticsearch.yml
:
xpack.security.enabled: true
xpack.security.transport.ssl.enabled: true
設置密碼:
sudo /usr/share/elasticsearch/bin/elasticsearch-setup-passwords interactive
編輯kibana.yml
:
elasticsearch.username: "kibana_system"
elasticsearch.password: "your_password"
解決方案:
sudo sysctl -w vm.max_map_count=262144
檢查: - 網絡連通性 - 集群名稱是否一致 - discovery.seed_hosts配置是否正確
檢查:
sudo tail -f /var/log/td-agent/td-agent.log
常見原因: - Elasticsearch服務不可達 - 緩沖區已滿 - 網絡防火墻阻止
解決方案: - 增加Fluentd worker數量 - 調整緩沖區大小 - 考慮使用Fluent Bit作為輕量級替代
檢查: - Elasticsearch服務狀態 - Kibana配置中的Elasticsearch地址 - 安全認證配置
優化建議: - 減少一次顯示的數據量 - 使用索引模式過濾不必要的數據 - 增加Kibana服務器資源
啟用內置監控:
xpack.monitoring.enabled: true
xpack.monitoring.elasticsearch.collection.enabled: true
配置Fluentd暴露Prometheus指標:
<source>
@type prometheus
port 24231
</source>
<source>
@type prometheus_output_monitor
interval 10
</source>
配置共享存儲:
path.repo: ["/mnt/elasticsearch_backups"]
創建倉庫:
curl -X PUT "localhost:9200/_snapshot/my_backup" -H 'Content-Type: application/json' -d'
{
"type": "fs",
"settings": {
"location": "/mnt/elasticsearch_backups"
}
}
'
創建快照:
curl -X PUT "localhost:9200/_snapshot/my_backup/snapshot_1?wait_for_completion=true"
配置Fluentd收集Docker日志:
<source>
@type forward
port 24224
bind 0.0.0.0
</source>
<source>
@type tail
path /var/lib/docker/containers/*/*-json.log
pos_file /var/log/td-agent/docker.log.pos
tag docker.*
<parse>
@type json
time_key time
time_format %Y-%m-%dT%H:%M:%S.%NZ
</parse>
</source>
使用Fluentd DaemonSet部署:
”`yaml apiVersion: apps/v1 kind: DaemonSet metadata: name: fluentd namespace: logging spec: selector: matchLabels: app: fluentd template: metadata: labels: app: fluentd spec: containers: - name: fluentd image: fluent/fluentd-kubernetes-daemonset:v1.11.5-debian-elasticsearch7-1.0 env: - name: FLUENT_ELASTICSEARCH_HOST value: “elasticsearch.logging.svc.cluster.local” - name: FLUENT_ELASTICSEARCH_PORT value: “920
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。