我想通过 Flink 计算 Kafka 中的数据,但问题是 Kafka 中的 JASON 数据可能会发生变化。
像这样:
{"data":{"template":25,"name":"name"}}
或这个:
{"data"{"type":"type1","props":"props","strem":"stream1"}
而且我无法提前知道这个 JSON 中包含了多少数据。所以在使用 Flink 时有一个问题:
streamExecutionEnvironment.addSource(new FlinkKafkaConsumer010<KafkaEvent>("flink", new KafkaEventSchema(),
kafkaProps))
.flatMap(new KafkaEventToRow()).returns(getReturnType());
那么Json数据这样的时候如何定义pojo类型和mapFuncation呢?
相关分类