在应用详情页中间有一个叫作“日志采集”的模块
点击右边的“添加”按钮,在弹出的对话框中选择日志的路径及正则规则
- 文件路径:你日志文件的位置
- 日志规则:如果没有特殊需求的话默认就好
提交后服务会自动重启动。
如果配置了上面采集器,那么它会向服务所在的Pod注入一个Filebeat采集器对应用服务的业务日志进行采集。把采集到的日志入到kafka集群,然后logstash进行消息处理及格式化。
处理完后入到ES集群,最终我们就可以通过kibana查询到我们的业务日志了。
当然kafka、logstash、es得您自己去搭建。
若您可把这几个服务跑在Kubernetes可以参考我给您生成的yaml 直接apply 进去就能跑。
生成filebeat会用到两个模版,一个是容器的模版FilebeatContainer,另一个是ConfigMap的模版FilebeatConfigMap,您可根据自己的需求调整相应的模版文件。