Stella981 Stella981
3年前
Kafka数据管道
!(https://oscimg.oschina.net/oscnet/262e5315515049e3b8c5e90db095ee07.gif)点击上方「蓝字」关注我们!(https://oscimg.oschina.net/oscnet/44452348bf1c4f6cba0522378b6abbb5.png)!(
Wesley13 Wesley13
3年前
linux命令:find命令
http://blog.csdn.net/pipisorry/article/details/39831419(https://www.oschina.net/action/GoToLink?urlhttp%3A%2F%2Fblog.csdn.net%2Fpipisorry%2Farticle%2Fdetails%2F39831419)linu
Stella981 Stella981
3年前
Knative 实战:基于 Kafka 实现消息推送
!1(https://yqfile.alicdn.com/01ee67ae04a648166d18ad84af8538056340b4f8.png)作者| 元毅 阿里云智能事业群高级开发工程师导读:当前在Knative中已经提供了对Kafka事件源的支持,那么如何基于Kafka实现消息推送呢?本文作者将以阿里云Kafk
Stella981 Stella981
3年前
Spark Streaming连接Kafka的两种方式 direct 跟receiver 方式接收数据的区别
Receiver是使用Kafka的高层次ConsumerAPI来实现的。Receiver从Kafka中获取的数据都是存储在SparkExecutor的内存中的,然后SparkStreaming启动的job会去处理那些数据。然而,在默认的配置下,这种方式可能会因为底层的失败而丢失数据。如果要启用高可靠机制,让数据零丢失,就必须启用Spark
Stella981 Stella981
3年前
Kafka连接器深度解读之JDBC源连接器
在现实业务中,Kafka经常会遇到的一个集成场景就是,从数据库获取数据,因为关系数据库是一个非常丰富的事件源。数据库中的现有数据以及对该数据的任何更改都可以流式传输到Kafka主题中,在这里这些事件可用于驱动应用,也可以流式传输到其它数据存储(比如搜索引擎或者缓存)用于分析等。实现这个需求有很多种做法,但是在本文中,会聚焦其中的一个解决方案,即Kafka
Stella981 Stella981
3年前
Kafka设计解析(十八)Kafka与Flink集成
转载自 huxihx(https://www.oschina.net/action/GoToLink?urlhttps%3A%2F%2Fwww.cnblogs.com%2Fhuxi2b),原文链接 Kafka与Flink集成(https://www.oschina.net/action/GoToLink?urlhttps%3A%2F%2Fww
Stella981 Stella981
3年前
Redis消息队列和KafKa优劣对比
Redis作为消息队列升级为KafKa记录项目当中运营人员发送指定匹配用户(最高用户量几十万的级别)特定的消息,所以这块是确确实实需要使用专业级别的消息队列中间件的,但是可能由于当时开发的各种历史原因导致使用了Redis的队列结构来作为消息队里lpush,blpop等命令,项目开发进展到现在,用户量不断增大,包括不同的消息继承进来,包括举报反馈,小纸条
Stella981 Stella981
3年前
Kafka网络模型
Kafka网络模型(https://www.oschina.net/action/GoToLink?urlhttps%3A%2F%2Fwww.cnblogs.com%2Flushilin%2Fp%2F11589860.html)
Stella981 Stella981
3年前
Kafka中produer发送消息回调超时错误
Kafka版本0.10.1.1producer发送消息后出现如下错误消息: Theproducerhasaerror:Expiring1record(s)fortesttopic0dueto30039mshaspassedsincelastappendTheproducerhasaerror:Expi
Stella981 Stella981
3年前
Kafka简单使用
packagecom.hgc.center.accounts.test;importjava.util.Collections;importjava.util.Properties;importorg.apache.kafka.clients.consumer.ConsumerConfig;importorg.apache.ka