Spark2.3(三十七):Stream join Stream(res文件每天更新一份)

Stella981
• 阅读 243

kafka测试数据生成:

package com.dx.kafka;

import java.util.Properties;
import java.util.Random;

import org.apache.kafka.clients.producer.Producer;
import org.apache.kafka.clients.producer.ProducerRecord;

public class KafkaProducer {
    public static void main(String[] args) throws InterruptedException {
        Properties props = new Properties();
        props.put("bootstrap.servers", "192.168.0.141:9092,192.168.0.142:9092,192.168.0.143:9092,192.168.0.144:9092");
        props.put("acks", "all");
        props.put("retries", 0);
        props.put("batch.size", 16384);
        props.put("linger.ms", 1);
        props.put("buffer.memory", 33554432);
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        Producer<String, String> producer = new org.apache.kafka.clients.producer.KafkaProducer(props);
        int i = 0;
        Random random=new Random();
        while (true) {
            i++;
            producer.send(new ProducerRecord<String, String>("my-topic", "key-" + Integer.toString(i),
                    i%3+","+random.nextInt(100)));
            System.out.println(i);
            Thread.sleep(1000);
            
            if(i%100==0) {
                Thread.sleep(60*1000);                
            }
        }
        // producer.close();

    }
}

Stream join Stream测试代码:

要求:使用spark structured streaming实时读取kafka中的数据,kafka中的数据包含字段int_id;kafka上数据需要关联资源信息(通过kafka的int_id与资源的int_id进行关联),同时要求资源每天都更新。

使用spark structured streaming实时读取kafka中的数据

Dataset<Row> linesDF = this.sparkSession.readStream()//
                .format("kafka")//
                .option("failOnDataLoss", false)//
                .option("kafka.bootstrap.servers", "192.168.0.141:9092,192.168.0.142:9092,192.168.0.143:9092,192.168.0.144:9092")//
                .option("subscribe", "my-topic")//
                .option("startingOffsets", "earliest")//
                .option("maxOffsetsPerTrigger", 10)//
                .load();

        StructType structType = new StructType();
        structType = structType.add("int_id", DataTypes.StringType, false);
        structType = structType.add("rsrp", DataTypes.StringType, false);
        structType = structType.add("mro_timestamp", DataTypes.TimestampType, false);
        ExpressionEncoder<Row> encoder = RowEncoder.apply(structType);
        Dataset<Row> mro = linesDF.select("value").as(Encoders.STRING()).map(new MapFunction<String, Row>() {
            private static final long serialVersionUID = 1L;

            @Override
            public Row call(String t) throws Exception {
                List<Object> values = new ArrayList<Object>();
                String[] fields = t.split(",");
                values.add(fields.length >= 1 ? fields[0] : "null");
                values.add(fields.length >= 2 ? fields[1] : "null");
                values.add(new Timestamp(new Date().getTime()));

                return RowFactory.create(values.toArray());
            }
        }, encoder);
        mro=mro.withWatermark("mro_timestamp", "15 minutes");
        mro.printSchema();

加载资源信息

StructType resulStructType = new StructType();
        resulStructType = resulStructType.add("int_id", DataTypes.StringType, false);
        resulStructType = resulStructType.add("enodeb_id", DataTypes.StringType, false);
        resulStructType = resulStructType.add("res_timestamp", DataTypes.TimestampType, false);
        ExpressionEncoder<Row> resultEncoder = RowEncoder.apply(resulStructType);
        Dataset<Row> resDs = sparkSession.readStream().option("maxFileAge", "1ms").textFile(resourceDir)
                .map(new MapFunction<String, Row>() {
                    private static final long serialVersionUID = 1L;

                    @Override
                    public Row call(String value) throws Exception {
                        String[] fields = value.split(",");
                        Object[] objItems = new Object[3];
                        objItems[0] = fields[0];
                        objItems[1] = fields[1];
                        objItems[2] = Timestamp.valueOf(fields[2]);

                        return RowFactory.create(objItems);
                    }
                }, resultEncoder);
        resDs = resDs.withWatermark("res_timestamp", "1 seconds");
        resDs.printSchema();

kafka上数据与资源关联

关联条件int_id相同,同时要求res.timestamp<=mro.timestmap & res.timestamp<(mro.timestmap-1天)

res如果放入broadcast经过测试发现也是可行的。

// JavaSparkContext jsc =
        // JavaSparkContext.fromSparkContext(sparkSession.sparkContext());
        Dataset<Row> cellJoinMro = mro.as("t10")//
                .join(resDs.as("t11"),// jsc.broadcast(resDs).getValue()
                        functions.expr("t11.int_id=t10.int_id "//
                                + "and t11.res_timestamp<=t10.mro_timestamp "//
                                + "and timestamp_diff(t11.res_timestamp,t10.mro_timestamp,'>','-86400000')"),//
                        "left_outer")//
                .selectExpr("t10.int_id", "t10.rsrp", "t11.enodeb_id", "t10.mro_timestamp", "t11.res_timestamp");

        StreamingQuery query = cellJoinMro.writeStream().format("console").outputMode("update") //
                .trigger(Trigger.ProcessingTime(1, TimeUnit.MINUTES))//
                .start();

udf:timestamp_diff定义

sparkSession.udf().register("timestamp_diff", new UDF4<Timestamp, Timestamp, String, String, Boolean>() {
            private static final long serialVersionUID = 1L;

            @Override
            public Boolean call(Timestamp t1, Timestamp t2, String operator, String intervalMsStr) throws Exception {
                long diffValue=t1.getTime()-t2.getTime();
                long intervalMs=Long.valueOf(intervalMsStr);
                
                if(operator.equalsIgnoreCase(">")){
                    return diffValue>intervalMs;
                }else if(operator.equalsIgnoreCase(">=")){
                    return diffValue>=intervalMs;
                }else if(operator.equalsIgnoreCase("<")){
                    return diffValue<intervalMs;
                }else if(operator.equalsIgnoreCase("<=")){
                    return diffValue<=intervalMs;
                }else if(operator.equalsIgnoreCase("=")){
                    return diffValue==intervalMs;
                }else{
                    throw new RuntimeException("unknown error");
                }
            }
        },DataTypes.BooleanType);

如果删除资源历史数据,不会导致正在运行的程序抛出异常;当添加新文件到res hdfs路径下时,可以自动被加载进来。

备注:要求必须每天资源文件只能有一份,否则会导致kafka上数据关联后结果重复,同时,res上的每天的文件中包含timestmap字段格式都为yyyy-MM-dd 00:00:00。

点赞
收藏
评论区
推荐文章
秃头王路飞 秃头王路飞
4个月前
webpack5手撸vue2脚手架
webpack5手撸vue相信工作个12年的小伙伴们在面试的时候多多少少怕被问到关于webpack方面的知识,本菜鸟最近闲来无事,就尝试了手撸了下vue2的脚手架,第一次发帖实在是没有经验,望海涵。languageJavaScript"name":"vuecliversion2","version":"1.0.0","desc
光头强的博客 光头强的博客
4个月前
Java面向对象试题
1、请创建一个Animal动物类,要求有方法eat()方法,方法输出一条语句“吃东西”。创建一个接口A,接口里有一个抽象方法fly()。创建一个Bird类继承Animal类并实现接口A里的方法输出一条有语句“鸟儿飞翔”,重写eat()方法输出一条语句“鸟儿吃虫”。在Test类中向上转型创建b对象,调用eat方法。然后向下转型调用eat()方
刚刚好 刚刚好
4个月前
css问题
1、在IOS中图片不显示(给图片加了圆角或者img没有父级)<div<imgsrc""/</divdiv{width:20px;height:20px;borderradius:20px;overflow:h
blmius blmius
1年前
MySQL:[Err] 1292 - Incorrect datetime value: ‘0000-00-00 00:00:00‘ for column ‘CREATE_TIME‘ at row 1
文章目录问题用navicat导入数据时,报错:原因这是因为当前的MySQL不支持datetime为0的情况。解决修改sql\mode:sql\mode:SQLMode定义了MySQL应支持的SQL语法、数据校验等,这样可以更容易地在不同的环境中使用MySQL。全局s
小森森 小森森
4个月前
校园表白墙微信小程序V1.0 SayLove -基于微信云开发-一键快速搭建,开箱即用
后续会继续更新,敬请期待2.0全新版本欢迎添加左边的微信一起探讨!项目地址:(https://www.aliyun.com/activity/daily/bestoffer?userCodesskuuw5n)\2.Bug修复更新日历2.情侣脸功能大家不要使用了,现在阿里云的接口已经要收费了(土豪请随意),\\和注意
晴空闲云 晴空闲云
4个月前
css中box-sizing解放盒子实际宽高计算
我们知道传统的盒子模型,如果增加内边距padding和边框border,那么会撑大整个盒子,造成盒子的宽度不好计算,在实务中特别不方便。boxsizing可以设置盒模型的方式,可以很好的设置固定宽高的盒模型。盒子宽高计算假如我们设置如下盒子:宽度和高度均为200px,那么这会这个盒子实际的宽高就都是200px。但是当我们设置这个盒子的边框和内间距的时候,那
艾木酱 艾木酱
3个月前
快速入门|使用MemFire Cloud构建React Native应用程序
MemFireCloud是一款提供云数据库,用户可以创建云数据库,并对数据库进行管理,还可以对数据库进行备份操作。它还提供后端即服务,用户可以在1分钟内新建一个应用,使用自动生成的API和SDK,访问云数据库、对象存储、用户认证与授权等功能,可专
Stella981 Stella981
1年前
Python之time模块的时间戳、时间字符串格式化与转换
Python处理时间和时间戳的内置模块就有time,和datetime两个,本文先说time模块。关于时间戳的几个概念时间戳,根据1970年1月1日00:00:00开始按秒计算的偏移量。时间元组(struct_time),包含9个元素。 time.struct_time(tm_y
Wesley13 Wesley13
1年前
Java日期时间API系列36
  十二时辰,古代劳动人民把一昼夜划分成十二个时段,每一个时段叫一个时辰。二十四小时和十二时辰对照表:时辰时间24时制子时深夜11:00凌晨01:0023:0001:00丑时上午01:00上午03:0001:0003:00寅时上午03:00上午0
Wesley13 Wesley13
1年前
MySQL部分从库上面因为大量的临时表tmp_table造成慢查询
背景描述Time:20190124T00:08:14.70572408:00User@Host:@Id:Schema:sentrymetaLast_errno:0Killed:0Query_time:0.315758Lock_
helloworld_28799839 helloworld_28799839
4个月前
常用知识整理
Javascript判断对象是否为空jsObject.keys(myObject).length0经常使用的三元运算我们经常遇到处理表格列状态字段如status的时候可以用到vue