前言
上一篇 基于docker部署的微服务架构(五): docker环境下的zookeeper和kafka部署 中,已经成功部署了 kafka 环境,现在我们要改造之前的项目,使用 log4j2 的 kafka appender 把日志统一输出到 kafka 中。
修改日志系统
spring boot 默认使用 logback 作为日志工具,这里需要作出修改。
以 service-registry-demo 为例,其他项目做相同的修改。
修改 pom.xml 文件,去掉默认的日志依赖,并引入 log4j2:
<dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter</artifactId> <exclusions> <exclusion> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-logging</artifactId> </exclusion> </exclusions></dependency><dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-log4j2</artifactId></dependency>
引入 kafka 客户端:
<dependency> <groupId>org.apache.kafka</groupId> <artifactId>kafka-clients</artifactId> <version>0.10.0.1</version></dependency>
修改 <properties>
标签的内容,增加 kafka server 的配置,后边创建的 log4j2.xml 从这里读取 kafka 的服务器地址:<kafka.bootstrap.servers>kafka宿主机IP:9092</kafka.bootstrap.servers>
在 docker profile中配置 docker 环境的 kafka server:<kafka.bootstrap.servers>kafka:9092</kafka.bootstrap.servers>
,在启动容器时使用 --link kafka
,连接kafka容器。
在 resources 目录下新建 log4j2.xml :
<?xml version="1.0" encoding="UTF-8"?><Configuration> <Properties> <Property name="logFormat"> %d{yyyy-MM-dd HH:mm:ss.SSS}{GMT+8} [@project.artifactId@] [%thread] %-5level %logger{35} - %msg %n </Property> <Property name="kafkaBootstrapServers"> @kafka.bootstrap.servers@ </Property> </Properties> <Appenders> <Console name="STDOUT" target="SYSTEM_OUT"> <PatternLayout pattern="${logFormat}"/> </Console> <RollingFile name="RollingFile" fileName="logs/@project.artifactId@.log" filePattern="logs/@project.artifactId@.%d{yyyy-MM-dd}.log"> <PatternLayout> <Pattern> ${logFormat} </Pattern> </PatternLayout> <Policies> <TimeBasedTriggeringPolicy/> </Policies> </RollingFile> <Kafka name="basicLog" topic="basic-log"> <PatternLayout> <Pattern> ${logFormat} </Pattern> </PatternLayout> <Property name="bootstrap.servers">${kafkaBootstrapServers}</Property> </Kafka> <Async name="FileAsync"> <AppenderRef ref="RollingFile"/> </Async> <Async name="basicLogAsync"> <AppenderRef ref="basicLog"/> </Async> </Appenders> <Loggers> <Logger name="org.apache.kafka" level="info"/> <Root level="info"> <AppenderRef ref="STDOUT"/> <AppenderRef ref="FileAsync"/> <AppenderRef ref="basicLogAsync"/> </Root> </Loggers></Configuration>
简单说明下 log4j2.xml 配置文件中的内容:
在 <Properties>
标签中定义了 logFormat 和 kafkaBootstrapServers 两个属性,这两个属性在下边的日志配置中需要用到,其中 kafkaBootstrapServers 的属性值从 pom.xml 中读取,可以根据不同的 profile 动态替换。
在 <Appenders>
标签中定义了一系列 appender,从上到下分别是:
控制台 appender
根据日期分割的日志文件 appender
把日志输出到kafka 的 appender,定义了 topic 为 basic-log
在日期分割的 appender 之上做了异步处理的 appender,不会阻塞程序运行
在 kafka apender 之上做了异步处理的 appender,不会阻塞程序运行
在 <Loggers>
标签中使用了 1、4、5,这3种 appender。2、3 这两种 appender 在发生异常时会阻塞程序运行,所以 4、5 在其之上进行了异步处理。
查看kafka中的日志数据
启动 service-registry-demo,进入 kafka 容器:
运行 docker ps
,找到kafka的 CONTAINER ID,运行 docker exec -it ${CONTAINER ID} /bin/bash
,进入kafka容器。
进入kafka默认目录 cd /opt/kafka_2.11-0.10.1.0
查看 basic-log 的内容:bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic basic-log --from-beginning
使用docker-maven-plugin打包并生成docker镜像
这部分的内容和前几篇文章基本相同,需要注意 docker 环境下 kafka server 的配置,在启动容器时需要 --link
连接 kafka 容器。
具体配置参见 demo源码 spring-cloud-3.0
最后
经过上边的配置,我们已经把 service-registry-demo 的日志输出到了 kafka,其他项目也做同样的修改,这样所有项目的日志都集中到了 kafka 。接下来继续搭建 ELK 日志统计系统,利用 logstash 把 kafka 中的日志数据导入到 elasticsearch ,最后用 kibana 显示日志数据。
作者:月冷心寒
链接:https://www.jianshu.com/p/73e65970b56f