当前位置: 首页 > news >正文

SparkStreaming--scala

文章目录

  • 第1关:QueueStream
    • 代码
  • 第2关:File Streams
    • 代码


第1关:QueueStream

任务描述
本关任务:编写一个清洗QueueStream数据的SparkStreaming程序。

相关知识
为了完成本关任务,你需要掌握:1.如何使用SparkStreaming,2.如何使用 SparkStreaming读取QueueStream。

SparkStreaming 的开发步骤
初始化SparkConf并设置相关参数
val conf = new SparkConf().setMaster(master).setAppName(appName)

说明:

appName 是应用程序在集群 UI 上显示的名称。

master 是Spark,Mesos或YARN集群的URL,或在本地模式下运行使用 local[*]

初始化JavaStreamingContext并设置处理批次的时间
val ssc = new StreamingContext(conf, Seconds(1))

设置数据源
例如:

val inputStream = ssc.queueStream(rddQueue)

批次数据处理(使用相关算子完成相应的操作)
算子 含义
map(func) 通过将源DStream的每个元素传递给函数func来返回一个新的DStream
flatMap(func) 与map类似,但每个输入项可以映射到0个或更多输出项。
filter(func) 通过仅选择func返回true的源DStream的记录来返回新的DStream
repartition(numPartitions) 通过创建更多或更少的分区来更改此DStream中的并行度级别
union(otherStream) 返回一个新的DStream,它包含源DStream和otherDStream中元素的并集
count() 通过计算源DStream的每个RDD中的元素数量,返回单元素RDD的新DStream
reduce(func) 通过使用函数func(它接受两个参数并返回一个)聚合源DStream的每个RDD中的元素,返回单元素RDD的新DStream 。该函数应该是关联的和可交换的,以便可以并行计算
countByValue() 当在类型为K的元素的DStream上调用时,返回(K,Long)对的新DStream,其中每个键的值是其在源DStream的每个RDD中的频率
reduceByKey(func,[ numTasks ]) 当在(K,V)对的DStream上调用时,返回(K,V)对的新DStream,其中使用给定的reduce函数聚合每个键的值。注意:默认情况下,这使用Spark的默认并行任务数(本地模式为2,在群集模式下,数量由config属性确定spark.default.parallelism进行分组。您可以传递可选numTasks参数来设置不同数量的任务
join(otherStream, [numTasks]) 当在(K,V)和(K,W)对的两个DStream上调用时,返回(K,(V,W))对的新DStream与每个键的所有元素对
cogroup(otherStream, [numTasks]) 当在(K,V)和(K,W)对的DStream上调用时,返回(K,Seq [V],Seq [W])元组的新DStream
transform(func) 通过将RDD-to-RDD函数应用于源DStream的每个RDD来返回新的DStream。这可以用于在DStream上执行任意RDD操作
updateStateByKey(func) 返回一个新的“状态”DStream,其中通过在键的先前状态和键的新值上应用给定函数来更新每个键的状态
foreachRDD(func) 最通用的输出运算符,它将函数func应用于从流生成的每个RDD。此函数应将每个RDD中的数据推送到外部系统,例如将RDD保存到文件,或通过网络将其写入数据库。请注意,函数func在运行流应用程序的驱动程序进程中执行,并且通常会在其中执行RDD操作,这将强制计算流式RDD。
启动流计算
ssc.start();

等待处理停止
ssc.awaitTermination();

QueueStream
QueueStream(队列流):推入队列的每个RDD将被视为DStream中的一批数据,并像流一样处理。

编程要求
在右侧编辑器补充代码,完成以下需求:

将时间戳转换成规定格式的时间形式(格式为:yyyy-MM-dd HH:mm:ss )

提取数据中的起始URL(切割符为空格)

拼接结果数据,格式如下:

Ip:124.132.29.10,visitTime:2019-04-22 11:08:33,startUrl:www/2,targetUrl: https://search.yahoo.com/search?p=反叛的鲁鲁修,statusCode:200
将最终结果写入Mysql数据库
测试说明
平台将对你编写的代码进行评测:

预期输出:

1 Ip:100.143.124.29,visitTime:2017-10-27 14:58:05,startUrl:www/1,targetUrl:https://www.baidu.com/s?wd=反叛的鲁鲁修,statusCode:404
2 Ip:30.132.167.100,visitTime:2018-12-02 11:29:39,startUrl:www/4,targetUrl:-,statusCode:302
3 Ip:30.156.187.132,visitTime:2016-05-17 17:18:56,startUrl:www/2,targetUrl:-,statusCode:200
4 Ip:29.100.10.30,visitTime:2016-10-12 01:25:47,startUrl:www/3,targetUrl:http://cn.bing.com/search?q=游戏人生,statusCode:302
5 Ip:132.187.167.143,visitTime:2017-01-08 23:21:09,startUrl:pianhua/130,targetUrl:-,statusCode:200
6 Ip:143.187.100.10,visitTime:2016-09-21 19:27:39,startUrl:www/1,targetUrl:-,statusCode:302
7 Ip:10.100.124.30,visitTime:2018-09-16 02:49:35,startUrl:www/4,targetUrl:http://cn.bing.com/search?q=来自新世界,statusCode:200
8 Ip:29.10.143.187,visitTime:2017-09-29 15:49:09,startUrl:www/1,targetUrl:-,statusCode:404
9 Ip:29.187.132.100,visitTime:2018-11-27 05:43:17,startUrl:www/1,targetUrl:-,statusCode:200
10 Ip:187.167.124.132,visitTime:2016-01-28 13:34:33,startUrl:www/6,targetUrl:-,statusCode:200
开始你的任务吧,祝你成功!

代码

import java.text.SimpleDateFormat
import java.util.Date
import org.apache.spark.{HashPartitioner, SparkConf}
import org.apache.spark.rdd.RDD
import org.apache.spark.streaming.{Seconds, StreamingContext}
import scala.collection.mutableobject QueueStream {def main(args: Array[String]) {val rddQueue = new mutable.SynchronizedQueue[RDD[String]]()val conf = new SparkConf().setMaster("local[2]").setAppName("queueStream")/********** Begin **********///1.初始化StreamingContext,设置时间间隔为1sval ssc = new StreamingContext(conf, Seconds(1))//2.对接队列流val inputStream = ssc.queueStream(rddQueue)/**** 数据格式如下:*      100.143.124.29,1509116285000,'GET www/1 HTTP/1.0',https://www.baidu.com/s?wd=反叛的鲁鲁修,404* 数据从左往右分别代表:用户IP、访问时间戳、起始URL及相关信息(访问方式,起始URL,http版本)、目标URL、状态码*** 原始数据的切割符为逗号,(英文逗号)** 需求:*      1.将时间戳转换成规定时间(格式为:yyyy-MM-dd HH:mm:ss )*      2.提取数据中的起始URL(切割符为空格)*      3.拼接结果数据,格式如下:* Ip:124.132.29.10,visitTime:2019-04-22 11:08:33,startUrl:www/2,targetUrl:https://search.yahoo.com/search?p=反叛的鲁鲁修,statusCode:200*      4.将最终结果写入 mysql 数据库, 调用DBUtils.add(line)即可, line:String*///3.获取队列流中的数据,进行清洗、转换(按照上面的需求)val data = inputStream.map(data=>{val dataliat = data.split(',')val ip = dataliat(0)val simpleDateFormat = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss")val lt = dataliat(1).toLongval date = new Date(lt)val visitTime = simpleDateFormat.format(date)val startUrl = dataliat(2).split(' ')(1)val targetUrl= dataliat(3)val statusCode = dataliat(4)val result = "Ip:" + ip + ",visitTime:" + visitTime + ",startUrl:" + startUrl + ",targetUrl:" + targetUrl + ",statusCode:" + statusCoderesult})//4.将最终结果写入 mysql 数据库, 调用DBUtils.add(line)即可, line:Stringdata.foreachRDD(rdd => {rdd.foreachPartition(it => {it.foreach(line => {DBUtils.add(line)})})})//5.启动SparkStreamingssc.start()/********** End **********/DBUtils.addQueue(ssc, rddQueue)}
}

在这里插入图片描述

第2关:File Streams

任务描述
本关任务:编写一个清洗File Streams数据的SparkStreaming程序。

相关知识
为了完成本关任务,你需要掌握:1. 文件流,2. SparkStreaming的编程流程。

文件流
文件流(File Streams):从与HDFS API兼容的任何文件系统上的文件读取数据

通过文件流创建Dstream:

val lines=streamingContext.fileStreamKeyClass,ValueClass, InputFormatClass

对于简单的文本文件,有一种更简单的方法:

val lines=streamingContext.textFileStream(dataDirectory)

Spark Streaming将监视目录dataDirectory并处理在该目录中创建的任何文件(不支持嵌套目录中写入的文件)。

注意:

文件必须具有相同的数据格式。

文件移动到该目录后,不能在添加新数据,即使添加也不会读取新数据。

只会监听目录下在程序启动后新增的文件,不会去处理历史上已经存在的文件。

说明:文件流不需要运行receiver,因此不需要分配core

SparkStreaming编程流程
设置SparkConf相关参数
val conf = new SparkConf().setMaster(master).setAppName(appName)

初始化StreamingContext
val ssc = new StreamingContext(conf, Seconds(1))
Seconds(1)表示每一秒处理一个批次;

设置数据源创建Dstream
val lines = ssc.textFileStream(dataDirectory)

通过将转换和输出操作应用于DStream来定义流式计算
比如flatmap,map,foreachRDD,updateStateByKey等等;

启动流计算
ssc.start();

等待处理停止
ssc.awaitTermination();

编程要求
在右侧编辑器中补全代码,要求如下:

/root/step11_fils下有两个文件,文件内容分别为:
hadoop hadoop hadoop hadoop hadoop hadoop hadoop hadoop spark spark
hello hello hello hello hello hello hello hello study study
要求清洗数据并实时统计单词个数,并将最终结果导入MySQL
step表结构:

列名 数据类型 长度 非空
word varchar 255 √
count int 255 √
测试说明
平台会对你编写的代码进行测试:

预期输出:

hadoop 8
spark 2
hello 8
study 2

代码

package com.sanyiqiimport java.sql.{Connection, DriverManager, ResultSet}
import org.apache.spark.streaming.{Seconds, StreamingContext}
import org.apache.spark.{SparkConf, SparkContext}object SparkStreaming {def main(args: Array[String]): Unit = {val conf = new SparkConf().setAppName("edu").setMaster("local")/********** Begin **********///1.初始化StreamingContext,设置时间间隔为1sval ssc = new StreamingContext(conf, Seconds(1))//2.设置文件流,监控目录/root/step11_filsval lines = ssc.textFileStream("/root/step11_fils")/* *数据格式如下:hadoop hadoop spark spark*切割符为空格*需求:*累加各个批次单词出现的次数*将结果导入Mysql*判断MySQL表中是否存在即将要插入的单词,不存在就直接插入,存在则把先前出现的次数与本次出现的次数相加后插入*库名用educoder,表名用step,单词字段名用word,出现次数字段用count*///3.对数据进行清洗转换val wordcount = lines.flatMap(_.split(" ")).map(x=>(x,1)).reduceByKey(_+_)//4.将结果导入MySQLwordcount.foreachRDD(rdd => {rdd.foreachPartition(f = eachPartition => {val connection: Connection = createConnection()eachPartition.foreach(f = record => {val querySql = "SELECT t.count FROM step t WHERE t.word = '" + record._1 + "'"val queryResultSet: ResultSet = connection.createStatement().executeQuery(querySql)val hasNext = queryResultSet.next()print("MySQL had word:" + record._1 + " already  :  " + hasNext)if (!hasNext){val insertSql = "insert into step(word,count) values('" + record._1 + "'," + record._2 + ")"connection.createStatement().execute(insertSql)} else {val newWordCount = queryResultSet.getInt("count") + record._2val updateSql = "UPDATE step SET count = " + newWordCount + " where word = '" + record._1 + "'"connection.createStatement().execute(updateSql)}})connection.close()})})//5.启动SparkStreamingssc.start()/********** End **********/Thread.sleep(15000)ssc.awaitTermination()ssc.stop()}/***获取mysql连接*@return*/def createConnection(): Connection ={Class.forName("com.mysql.jdbc.Driver")DriverManager.getConnection("jdbc:mysql://localhost:3306/educoder","root","123123")}
}

在这里插入图片描述


相关文章:

  • 北京网站建设多少钱?
  • 辽宁网页制作哪家好_网站建设
  • 高端品牌网站建设_汉中网站制作
  • Apache访问机制配置
  • 阿里通义音频生成大模型 FunAudioLLM 开源
  • el-popover或el-popconfirm中button不展示问题
  • 从零开始学习c++全套通关系列(第二章)万字总结,建议收藏!
  • 混合贪心算法求解地铁线路调度
  • 结合C++智能指针聊聊观察者模式
  • WPF 框架 Prism IActiveAware接口使用
  • 前端项目本地的node_modules直接上传到服务器上无法直接使用(node-sasa模块报错)
  • boost::regex_replace的使用
  • 海外ASO:iOS与谷歌优化的相同点和区别
  • LabVIEW电子水泵性能测试平台
  • 四个“一体化”——构建数智融合时代下的一站式大数据平台
  • 印尼Facebook直播网络需要达到什么要求?
  • 微信小程序毕业设计-汽车维修项目管理系统项目开发实战(附源码+论文)
  • 图——图的遍历(DFS与BFS)
  • Angularjs之国际化
  • CSS盒模型深入
  • docker容器内的网络抓包
  • emacs初体验
  • ES6系列(二)变量的解构赋值
  • JavaScript 事件——“事件类型”中“HTML5事件”的注意要点
  • JavaSE小实践1:Java爬取斗图网站的所有表情包
  • Java方法详解
  • js递归,无限分级树形折叠菜单
  • Laravel5.4 Queues队列学习
  • Object.assign方法不能实现深复制
  • Spring技术内幕笔记(2):Spring MVC 与 Web
  • 给初学者:JavaScript 中数组操作注意点
  • 关于字符编码你应该知道的事情
  • 经典排序算法及其 Java 实现
  • 普通函数和构造函数的区别
  • 推荐一个React的管理后台框架
  • Java数据解析之JSON
  • 微龛半导体获数千万Pre-A轮融资,投资方为国中创投 ...
  • ​中南建设2022年半年报“韧”字当头,经营性现金流持续为正​
  • # Swust 12th acm 邀请赛# [ E ] 01 String [题解]
  • # 飞书APP集成平台-数字化落地
  • #宝哥教你#查看jquery绑定的事件函数
  • (2024)docker-compose实战 (9)部署多项目环境(LAMP+react+vue+redis+mysql+nginx)
  • (7)摄像机和云台
  • (Arcgis)Python编程批量将HDF5文件转换为TIFF格式并应用地理转换和投影信息
  • (STM32笔记)九、RCC时钟树与时钟 第二部分
  • (八)Flask之app.route装饰器函数的参数
  • (苍穹外卖)day03菜品管理
  • (非本人原创)史记·柴静列传(r4笔记第65天)
  • (附源码)springboot宠物医疗服务网站 毕业设计688413
  • (附源码)springboot太原学院贫困生申请管理系统 毕业设计 101517
  • (六)软件测试分工
  • (面试必看!)锁策略
  • (删)Java线程同步实现一:synchronzied和wait()/notify()
  • (一)Kafka 安全之使用 SASL 进行身份验证 —— JAAS 配置、SASL 配置
  • (幽默漫画)有个程序员老公,是怎样的体验?
  • (原)Matlab的svmtrain和svmclassify
  • (转)h264中avc和flv数据的解析
  • (转)创业的注意事项