在Apache Kafka中,您可以使用Kafka Streams API進行數據聚合
<dependency>
<groupId>org.apache.kafka</groupId>
<artifactId>kafka-streams</artifactId>
<version>2.8.0</version>
</dependency>
import org.apache.kafka.common.serialization.Serdes;
import org.apache.kafka.streams.KafkaStreams;
import org.apache.kafka.streams.StreamsBuilder;
import org.apache.kafka.streams.kstream.KStream;
import org.apache.kafka.streams.kstream.KTable;
import org.apache.kafka.streams.kstream.Materialized;
import org.apache.kafka.streams.kstream.Produced;
import java.util.Properties;
public class KafkaStreamsAggregation {
public static void main(String[] args) {
Properties props = new Properties();
props.put(StreamsConfig.APPLICATION_ID_CONFIG, "kafka-streams-aggregation");
props.put(StreamsConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
props.put(StreamsConfig.DEFAULT_KEY_SERDE_CLASS_CONFIG, Serdes.String().getClass());
props.put(StreamsConfig.DEFAULT_VALUE_SERDE_CLASS_CONFIG, Serdes.String().getClass());
StreamsBuilder builder = new StreamsBuilder();
KStream<String, String> inputStream = builder.stream("input-topic");
// 數據聚合
KTable<String, Integer> aggregatedTable = inputStream
.groupByKey()
.reduce((value1, value2) -> value1 + value2, Materialized.as("aggregated-store"));
// 將聚合結果寫回到另一個Kafka主題
aggregatedTable.toStream().to("output-topic", Produced.with(Serdes.String(), Serdes.Integer()));
KafkaStreams streams = new KafkaStreams(builder.build(), props);
streams.start();
// 添加關閉鉤子
Runtime.getRuntime().addShutdownHook(new Thread(streams::close));
}
}
在這個示例中,我們從一個名為"input-topic"的Kafka主題讀取數據,然后使用groupByKey()
方法對數據進行分組,接著使用reduce()
方法對每個分組進行聚合。最后,我們將聚合結果寫回到名為"output-topic"的Kafka主題。
請注意,這個示例使用了字符串類型的數據。您可以根據需要修改代碼以處理其他類型的數據。