当前位置: 首页 > news >正文

做废品交易看什么什么网站网站首页命名

做废品交易看什么什么网站,网站首页命名,重庆云阳网站建设价格,邯郸房产信息网查询系统启动kafka 确保本地已安装并启动 Kafka 服务(或连接远程 Kafka 集群 ),比如通过 Kafka 官网下载解压后,启动 Zookeeper(老版本 Kafka 依赖,新版本用 KRaft 可不依赖 )和 Kafka 服务&#xff1a…

启动kafka

确保本地已安装并启动 Kafka 服务(或连接远程 Kafka 集群 ),比如通过 Kafka 官网下载解压后,启动 Zookeeper(老版本 Kafka 依赖,新版本用 KRaft 可不依赖 )和 Kafka 服务:

# 启动 Zookeeper(若用 KRaft 模式可跳过)

bin/zookeeper-server-start.sh config/zookeeper.properties

# 启动 Kafka 服务

bin/kafka-server-start.sh config/server.properties

版本:

Kafka 从2.8.0版本开始引入了 KIP-500,提供了无 Zookeeper 的早期访问功能1。不过,此时的实现并不完全,不建议在生产环境中使用。

3.0版本开始真正全面摒弃 Zookeeper,使用新的元数据管理方式 Kraft,提高了 Kafka 的可扩展性、可用性和性能4。

4.0版本是第一个完全无需 Apache Zookeeper 运行的重大版本,将不再支持以 ZK 模式运行或从 ZK 模式迁移。

项目引依赖

<dependencies><dependency><groupId>org.apache.kafka</groupId><artifactId>kafka-clients</artifactId><version>3.6.0</version> <!-- 版本按需选,建议用较新稳定版 --></dependency>
</dependencies>

创建 Producer 类(编写生产者代码)

import org.apache.kafka.clients.producer.*;
import java.util.Properties;public class KafkaProducerDemo {public static void main(String[] args) {// 1. 配置 Kafka 连接、序列化等参数Properties props = new Properties();props.put("bootstrap.servers", "localhost:9092"); // Kafka 集群地址props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); // 键的序列化器props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); // 值的序列化器// 2. 创建 Producer 实例Producer<String, String> producer = new KafkaProducer<>(props);// 3. 构造消息(指定主题、键、值)String topic = "test_topic"; // 要发送到的主题,需提前在 Kafka 创建或允许自动创建String key = "key1";String value = "Hello, Kafka from IDEA!";ProducerRecord<String, String> record = new ProducerRecord<>(topic, key, value);// 4. 发送消息(异步发送 + 回调处理结果)producer.send(record, new Callback() {@Overridepublic void onCompletion(RecordMetadata metadata, Exception exception) {if (exception != null) {System.err.println("消息发送失败:" + exception.getMessage());} else {System.out.printf("消息发送成功!主题:%s,分区:%d,偏移量:%d%n", metadata.topic(), metadata.partition(), metadata.offset());}}});// 5. 关闭 Producer(实际生产环境可能在程序结束时或合适时机关闭)producer.close();}
}
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerRecord;
import java.util.Properties;public class KafkaProducerExample {private final static String TOPIC = "mytopic";private final static String BOOTSTRAP_SERVERS = "localhost:9092";public static void main(String[] args) {Properties props = new Properties();props.put("bootstrap.servers", BOOTSTRAP_SERVERS);props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");KafkaProducer<String, String> producer = new KafkaProducer<>(props);try {for (int i = 0; i < 10; i++) {String message = "Message " + i;producer.send(new ProducerRecord<>(TOPIC, message));}} catch (Exception e) {e.printStackTrace();} finally {producer.close();}}
}

创建 Consumer 类(编写消费者代码)

import org.apache.kafka.clients.consumer.*;
import java.time.Duration;
import java.util.Collections;
import java.util.Properties;public class KafkaConsumerDemo {public static void main(String[] args) {// 1. 配置 Kafka 连接、反序列化、消费者组等参数Properties props = new Properties();props.put("bootstrap.servers", "localhost:9092"); // Kafka 集群地址props.put("group.id", "test_group"); // 消费者组 ID,同一组内消费者协调消费props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer"); // 键的反序列化器props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer"); // 值的反序列化器props.put("auto.offset.reset", "earliest"); // 没有已提交偏移量时,从最早消息开始消费// 2. 创建 Consumer 实例KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);// 3. 订阅主题String topic = "test_topic";consumer.subscribe(Collections.singletonList(topic));// 4. 循环拉取消息(长轮询)try {while (true) {ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100));for (ConsumerRecord<String, String> record : records) {System.out.printf("收到消息:主题=%s,分区=%d,偏移量=%d,键=%s,值=%s%n", record.topic(), record.partition(), record.offset(), record.key(), record.value());}// 手动提交偏移量(也可配置自动提交,生产环境建议手动更可靠)consumer.commitSync();}} catch (Exception e) {e.printStackTrace();} finally {// 5. 关闭 Consumerconsumer.close();}}
}
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import java.util.Collections;
import java.util.Properties;public class KafkaConsumerExample {private final static String TOPIC = "mytopic";private final static String BOOTSTRAP_SERVERS = "localhost:9092";private final static String GROUP_ID = "mygroup";public static void main(String[] args) {Properties props = new Properties();props.put("bootstrap.servers", BOOTSTRAP_SERVERS);props.put("group.id", GROUP_ID);props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);consumer.subscribe(Collections.singletonList(TOPIC));try {while (true) {ConsumerRecords<String, String> records = consumer.poll(100);// 处理接收到的消息records.forEach(record -> {System.out.println("Received message: " + record.value());});}} catch (Exception e) {e.printStackTrace();} finally {consumer.close();}}
}

必须要素:

  1. 必要配置
    • bootstrap.servers:Kafka 集群地址。
    • group.id:消费者组 ID(相同组内的消费者会负载均衡消费)。
    • key.deserializer 和 value.deserializer:消息键和值的反序列化器。
    • auto.offset.reset:消费位置重置策略(如 earliest 从最早消息开始消费)。
  2. 订阅主题:通过 consumer.subscribe() 订阅目标主题。
  3. 消息消费:通过 consumer.poll() 轮询拉取消息,并处理 ConsumerRecords
  4. 偏移量管理:自动提交(enable.auto.commit=true)或手动提交(consumer.commitSync())消费偏移量。
  5. 资源管理:使用后调用 consumer.close() 关闭连接。

与 Kafka 的对比

Kafka的Producer和Consumer需要手动管理连接和资源的关闭,因此在使用完毕后需要调用close方法来关闭Producer(或Consumer)。

总结来说,可以使用KafkaProducer的send方法来替代RabbitTemplate的convertAndSend方法在Kafka中发送消息。

Spring AMQP 是 Spring 框架提供的一个用于简化 AMQP(Advanced Message Queuing Protocol) 消息中间件开发的模块。它基于 AMQP 协议,提供了一套高层抽象和模板类,帮助开发者更便捷地实现消息发送和接收,支持多种 AMQP 消息中间件(如 RabbitMQ、Apache Qpid 等)。

维度Spring AMQP(RabbitMQ)Spring Kafka
协议AMQP(高级消息队列协议)Kafka 自研协议
消息模型支持多种交换器类型(Direct、Topic 等)基于主题(Topic)和分区(Partition)
顺序性单队列内保证顺序分区内保证顺序,多分区需按 Key 路由
吞吐量中等(万级 TPS)高(十万级 TPS)
适用场景企业集成、任务调度、事务性消息大数据、日志收集、实时流处理
http://www.yayakq.cn/news/279080/

相关文章:

  • 内蒙古建设厅门户网站wordpress 贴吧主题
  • 做网站虚拟主机是什么意思在线商城网站建设
  • 做网站的好框架百度一下首页手机版
  • 创业网站建设做网站用vue还是用jquery
  • 湖州 网站建设公司哪家好青岛网站建设市场
  • 旅游的网站怎么做上海网商电子商务有限公司
  • 免费做代理的网站计算机网站建设维护的基本知识
  • 泰州免费网站建站模板外贸流程和外贸术语
  • 搭建一个网站的步骤响应式mvc企业网站源码
  • 网站发稿平台5网站开发之美
  • 旅游网站设计思路专做服装的网站
  • 网站建设 产品拍照电商类网站设计模板
  • 网站建设最好的公司哪家好搜索排名优化软件
  • 免费大型网站长沙建筑公司排名
  • 站长之家新网址网站导航网址大全
  • 昆明网站建设哪家强专注于网站营销服务
  • 门户网站开发要求徐州集团网站建设报价
  • 贵州省建设学校网站首页皋兰县建设局网站
  • 做百度移动网站点网站建设的源代码有什么作用
  • 搬瓦工做网站好慢瑞安市建设工程质量监督站网站
  • 基本信息型网站有哪些专业沈阳网站制作
  • 如何查看网站ftp地址连云港企业网站建设
  • 《电子商务网站开发与管理》书籍网站建设公司利润分配
  • 深圳网站制作07551wordpress班级模板
  • c2c网站开发策划深圳网站制作问
  • 织梦做的网站在手机上显示国内重大新闻事件2023简短
  • 网站开发类网站模板下载html
  • 网络营销型网站建设外链发布平台大全
  • 求职网站开发多少钱centos 6.5 搭建wordpress
  • 宁波网站制作作dw制作网页的步骤