最新内容

我们为什么用gRPC取代了Kafka(Java消息中间件)

本文作者Stephanie Sherriff的技术团队第一个 App 高度依赖 Kafka,她希望这个 App 能够支持审计,具有很高的稳定性,从长远看,随着用户量的增长也能够轻松地处理高负载。但 Kafka 同样带来了基础设施、系统维护和支持方面的成本问题,最终他们选择了用 gRPC 取代了 Kafka。值得说明的是,二者的技术选型并没有明确的优劣之分,有 …

Java通过Kafka Streams库来实现数据流处理

#暑期创作大赛#Kafka数据流处理在Java中的应用可以通过Kafka Streams库来实现。以下是一个简单的示例,展示了如何使用Kafka Streams进行数据流处理:import java.util.Properties;import org.apache.kafka.streams.KafkaStreams;import org.apache.k …

Apache Druid 数据摄取——本地数据和kafka流式数据 一篇文章看懂

Durid概述Apache Druid是一个集时间序列数据库、数据仓库和全文检索系统特点于一体的分析性数据平台。本文将带你简单了解Druid的特性,使用场景,技术特点和架构。这将有助于你选型数据存储方案,深入了解Druid存储,深入了解时间序列存储等。Apache Druid是一个高性能的实时分析型数据库。上篇文章,我们了解了Druid的加载方式,咱么主要说 …

深入理解Kafka生产者 & 消费者设计模式

介绍 KafkaKafka 是一款基于发布与订阅的消息系统。用生产者客户端 API 向 Kafka 生产消息,用消费者客户端 API 从 Kafka 读取这些消息。Kafka 使用 Zookeeper 保存元数据信息。Kafka 0.9 版本之前,除了 broker 之外, 消费者也会使用 Zookeeper 保存一些信息,比如消费者群组的信息、 主题信息、 …

从源码和日志文件结构中分析 Kafka 重启失败事件

上次的 Kafka 重启失败事件,对为什么重启失败的原因似乎并没有解释清楚,那么我就在这里按照我对 Kafka 的认识,从源码和日志文件结构去尝试寻找原因。从源码中定位到问题的根源首先把导致 Kafka 进程退出的异常栈贴出来:注:以下源码基于 kafka 0.11.0.2 版本。我们直接从 index 文件损坏警告日志的位置开始:kafka.log.Log …

程序员:我就在简历上写了熟悉kafka,结果面试官就逮着问,硬问

霸哥:怎么了?看起来心情不太好的亚子?程序员:昨天去面试,被一个面试官怼了霸哥:还有这种事?程序员:是啊,我也没想到,我都以为面试一切顺利了,结果二面的时候被那个面试官逮了!霸哥:怎么回事啊?程序员:我之前做简历的时候,为了让技能这一块丰富好看点,写有Java基础扎实、会用JVM啥的、了解分布式、Zookeeper注册中心,也就加了一个熟悉kafka,然后, …

怒肝15天,终将Kafka的“重平衡”一举拿下

推荐学习面试官最爱问的Kakfa,基础+进阶+高级,44问疯狂轰炸!牛掰!“基础-中级-高级”Java程序员面试集结,看完献出我的膝盖1、队列重平衡概述如果对RocketMQ或者对消息中间件有所了解的话,消费端在进行消息消费时至少需要先进行队列(分区)的负载,即一个消费组内的多个消费者如何对订阅的主题中的队列进行负载均衡,当消费者新增或减少、队列增加或减少时 …

java nio,netty,kafka 中经常提到“零拷贝”到底是什么?

零拷贝技术 Zero-Copy 是指计算机执行操作时,可以直接从源(如文件或网络套接字)将数据传输到目标缓冲区, 而不需要 CPU 先将数据从某处内存复制到另一个特定区域,从而减少上下文切换以及 CPU 的拷贝时间。1 IO 中断原理在 DMA 技术出现之前,应用程序与磁盘之间的 IO 操作都是通过 CPU 的中断完成的。用户进程向 CPU 发起 read …