在Ubuntu上對Kubernetes日志進行分析,可參考以下操作步驟,主要涉及工具部署、日志收集與分析等環節:
kubectl apply -f https://raw.githubusercontent.com/fluent/fluentd-kubernetes-daemonset/master/fluentd-daemonset-elasticsearch.yaml
(需修改配置文件中的elasticsearch.host
和elasticsearch.port
指向實際服務地址)kubectl apply -f https://www.elastic.co/GUIDE/en/beats/filebeat/current/filebeat-daemonset.yaml
配置文件需指定日志路徑(如/var/log/containers/*.log
)和輸出目標(Elasticsearch/Kafka)kubectl apply -f https://artifacts.elastic.co/GPG-KEY-elasticsearch
kubectl apply -f https://artifacts.elastic.co/packages/7.x/apt/elasticsearch-7.x.yaml
(需根據Ubuntu版本選擇適配的Elasticsearch包)kubectl apply -f https://artifacts.elastic.co/GPG-KEY-elasticsearch
kubectl apply -f https://artifacts.elastic.co/packages/7.x/apt/kibana-7.x.yaml
訪問http://<kibana-service-ip>:5601
,使用默認賬號密碼(kibana_system/changeme
)登錄kubectl logs <pod-name> -c <container-name> [--follow] [--grep="關鍵字"]
(--follow
實時查看,--grep
過濾關鍵字,支持正則表達式)kubernetes-logs-*
)。error
、pod_name
),或通過時間范圍篩選日志。kubectl auth can-i
命令驗證。以上步驟參考自,可根據實際需求選擇工具組合。