Kafka整合springboot
1、在项目中连接kafka
因为是外网,首先要开放kafka配置文件中的如下配置(其中IP为公网IP),(本人这里用的本地)在kafka文件夹下面的config下的server.properties文件。
 
2.springboot中导入kafka依赖
<dependency>
    <groupId>org.springframework.kafka</groupId>
    <artifactId>spring-kafka</artifactId>
</dependency> 3.初始化topic
两种方式
- 手动创建
 - 我们可以在项目中新建一个配置类专门用来初始化topic
 
@Configuration
public class KafkaInitialConfiguration {
    // 创建一个名为testtopic的Topic并设置分区数为8,分区副本数为2
    @Bean
    public NewTopic initialTopic() {
        return new NewTopic("testtopic",8, (short) 2 );
    }
     // 如果要修改分区数,只需修改配置值重启项目即可
    // 修改分区数并不会导致数据的丢失,但是分区数只能增大不能减小
    @Bean
    public NewTopic updateTopic() {
        return new NewTopic("testtopic",10, (short) 2 );
    }
} 4.配置文件
在application.yaml文件中如下
server:
  port: 8081
spring:
  application:
    name: kafka-ts
  # 指定kafka 代理地址,可以多个
  kafka:
    bootstrap-servers: 127.0.0.1:9092
    producer: #生产者
      retries: 3 #重试次数
      batch-size: 16384 #每次批量发送消息的数量16384
      buffer-memory: 3354432
      key-serializer: org.apache.kafka.common.serialization.StringSerializer #指定消息key和消息体的编解码方式
      value-serializer: org.apache.kafka.common.serialization.StringSerializer
    consumer: #消费者
      group-id: ts-log-group
      auto-offset-reset: earliest
      enable-auto-commit: true
      auto-commit-interval: 100
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
 在application.properties文件中如下
spring.application.name=kafka-ts server.port=8081 #============== kafka =================== # 指定kafka 代理地址,可以多个 spring.kafka.bootstrap-servers=127.0.0.1:9092 #=============== provider ======================= spring.kafka.producer.retries=3 # 每次批量发送消息的数量 spring.kafka.producer.batch-size=16384 spring.kafka.producer.buffer-memory=33554432 # 指定消息key和消息体的编解码方式 spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer #=============== consumer ======================= # 指定默认消费者group id spring.kafka.consumer.group-id=ts-log-group spring.kafka.consumer.auto-offset-reset=earliest spring.kafka.consumer.enable-auto-commit=true spring.kafka.consumer.auto-commit-interval=100 # 指定消息key和消息体的编解码方式 spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer
5.生产者和消费者
简单生产者
@RestController
public class KafkaProducer {
    @Autowired
    private KafkaTemplate<String, Object> kafkaTemplate;
    // 发送消息
    @GetMapping("/kafka/normal/{message}")
    public void sendMessage1(@PathVariable("message") String normalMessage) {
        kafkaTemplate.send("topic1", normalMessage);
    }
    @GetMapping("/test")
    public void send(){
        System.out.println("11111");
    }
} 简单消费者
@Component
public class KafkaConsumer {
    // 消费监听
    @KafkaListener(topics = {"topic1"})
    public void onMessage1(ConsumerRecord<?, ?> record){
        // 消费的哪个topic、partition的消息,打印出消息内容
        System.out.println("简单消费:"+record.topic()+"-"+record.partition()+"-"+record.value());
    }
} 6.启动zookeeper和kafka
打开zkServer.cmd和zkCli.cmd,保证zookeeper运行正常,窗口不关闭。
打开kafka目录下cmd,
输入.\bin\windows\kafka-server-start.bat .\config\server.properties
7.启动idea,postman或者jmeter测试生产消费
 
 



京公网安备 11010502036488号