当前位置: 首页 > news >正文

Kafka自定义分区机制

文章目录

  • 1.如何自定义分区机制
  • 2.示例


1.如何自定义分区机制

若需要使用自定义分区机制,需要完成两件事:
1)在 producer 程序中创建一个类,实现 org.apache.kafka.clients.producer.Partitioner 接口主要分区逻辑在 Partitioner.partition中实现。
2)在用于构造KafkaProducer的Properties对象中设置 partitioner.class 参数。

2.示例

假设我们的消息中有一些消息是用于审计功能的,这类消息的 key 会被固定地分配一个字符串“audit”。我们想要让这类消息发送到 topic 的最后一个分区上,便于后续统一处理,而对于相同 topic 下的其他消息则采用随机发送的策略发送到其他分区上。那么现在就可以这样来实现自定义的分区策略,如下列代码所示:

import org.apache.kafka.clients.producer.Partitioner;
import org.apache.kafka.common.Cluster;
import org.apache.kafka.common.PartitionInfo;
import java.util.List;
import java.util.Map;
import java.util.Random;
public class AuditPartitioner implements Partitioner {
    private Random random;
    @Override
    public void configure(Map<String, ?> map) {
        //该方法实现必要资源的初始化工作
        random= new Random();
    }
    @Override
    public int partition(String topic, Object keyObj, byte[] keyBytes, Object valueObj, byte[] valueBytes, Cluster cluster) {
        String key=(String)keyObj;
         //从集群元数据中把属于该topic的所有分区信息都读取出供分区策略使用
        List<PartitionInfo> partitionInfoList = cluster.availablePartitionsForTopic(topic);
        int partitionCount =partitionInfoList.size();
        int auditPartition=partitionCount-1;
        return key == null|| key.isEmpty()|| !key.contains ("audit")?random.nextInt(partitionCount-1):auditPartition;
    }
    @Override
    public void close() {
    //该方法实现必要资源的清理工作
    }
}

创建好自定义分区策略类后,在构建KafkaProducer 之前为Properties增加该属性;代码如下:

import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.Producer;
import org.apache.kafka.clients.producer.ProducerRecord;
import java.util.Properties;
import java.util.concurrent.ExecutionException;
public class ProducerTest {
    public static void main(String[] args) throws ExecutionException, InterruptedException {
        Properties props = new Properties();
        props.put("bootstrap.servers", "localhost:9092");//必须指定
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");//必须指定
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");//必须指定
        props.put("acks", "-1");
        props.put("retries", 3);
        props.put("batch.size", 323840);
        props.put("linger.ms", 10);
        props.put("buffer.memory", 33554432);
        props.put("max.block.ms", 3000);
		props.put("partitioner.class","com.exm.collectcodenew.kafka.producer.custompartitioner.AuditPartitioner");
        Producer<String, String> producer = new KafkaProducer<>(props);
        ProducerRecord nonKeyRecord = new ProducerRecord("topic-test","non-key record");
        ProducerRecord auditRecord = new ProducerRecord("topic-test", "audit","audit record");
        ProducerRecord nonAuditRecord =new ProducerRecord("topic-test","other","non-sudit record");
        producer.send(nonKeyRecord).get();
        producer.send(nonAuditRecord).get();
        producer.send(auditRecord).get();
        producer.send(nonKeyRecord).get();
        producer.send(nonAuditRecord).get();
        producer.close();
    }
}

相关文章:

  • HTTP和RPC的区别
  • 稳定运行的以Microsoft Azure SQL database数据库为数据源和目标的ETL性能变差时提高性能方法和步骤
  • 大模型之蒸馏模型
  • HashMap添加元素的流程图
  • Fiddler使用(一)
  • 嵌入式八股,什么是线程安全
  • 稀疏矩阵的存储
  • 美团 web 最新 mtgsig1.2
  • Spring MVC 拦截器使用
  • 大模型详细配置
  • 人工智能之数学基础:线性方程组求解的得力助手——增广矩阵
  • HarmonyOS Next~鸿蒙系统架构设计解析:分层、模块化与智慧分发的技术革新
  • DeDeCMS靶场攻略
  • pytest的测试报告allure
  • MongoDB 配合python使用的入门教程
  • 微软产品的专有名词和官方视频教程
  • 柔性PZT压电薄膜触觉传感器在人形机器人的应用
  • Android Launcher3终极改造:全屏应用展示实战!深度解析去除Hotseat的隐藏技巧
  • 如何设计大模型意图识别?
  • 学习笔记|arduino uno r3|DS1307时钟芯片|Atmega328P| 设置时间|读取时间|无源晶振:DS1307时钟芯片实验
  • 第1现场 | 美国称将取消制裁,对叙利亚意味着什么
  • 习近平出席中国-拉美和加勒比国家共同体论坛第四届部长级会议开幕式
  • 福建宁德市长张永宁拟任设区市党委正职,曾获评全国优秀县委书记
  • 飙升至熔断,巴基斯坦股市两大股指收盘涨逾9%
  • 山东枣庄同一站点两名饿了么骑手先后猝死,当地热线:职能部门正调查
  • 上海护师邢红获第50届南丁格尔奖,她为何能摘得护理界最高荣誉