FKLEK
(1)利用Filebeat去监控日志文件,将Kafka作为Filebeat的输出端
(2)Kafka实时接收到Filebeat后以Logstash作为输出端输出
(3)通过Logstash的一些插件对数据进行过滤最后达到想要的数据格式,并以ElasticSearch作为输出端输出
(4)在ElasticSearch就可以进行检索和聚合分析
(5)借助Kibana的数据可视化能力
Filebeat
1 | <match test-topic> |
(1)利用Filebeat去监控日志文件,将Kafka作为Filebeat的输出端
(2)Kafka实时接收到Filebeat后以Logstash作为输出端输出
(3)通过Logstash的一些插件对数据进行过滤最后达到想要的数据格式,并以ElasticSearch作为输出端输出
(4)在ElasticSearch就可以进行检索和聚合分析
(5)借助Kibana的数据可视化能力
1 | <match test-topic> |
本文标题:FKLEK 采集展示
文章作者: 阿帅
发布时间:2024年06月29日 - 18时04分
最后更新:2024年07月02日 - 14时04分
原始链接:https://chengshea.github.io/services/elk/fklek/
许可协议: "署名-非商用-相同方式共享 3.0" 转载请保留原文链接及作者。