大家好,我是不温卜火,是一名计算机学院大数据专业大二的学生,昵称来源于成语— 此篇为大家带来的是<Action> 行动算子转换算子 通过func函数聚集RDD中的所有元素,先聚合分区内数据,再聚合分区间数据。 在驱动程序中,以数组的形式返回数据集的所有元素。 返回RDD中元素的个数 返回 RDD 中的第一个元素. 类似于take(1). 返回一个由RDD的前n个元素组成的数组 返回排序后的前 n 个元素, 默认是升序排列.数据也会拉到 driver 端 aggregate函数将每个分区里面的元素通过seqOp和初始值进行聚合,然后用combine函数将每个分区的结果和初始值(zeroValue)进行combine操作。这个函数最终返回的类型不需要和RDD中元素类型一致。 注意: 折叠操作,aggregate的简化操作,seqop和combop一样的时候,可以使用fold 针对(K,V)类型的RDD,返回一个(K,Int)的map,表示每一个key对应的元素个数。 在数据集的每一个元素上,运行函数func进行更新。 本次的就到这里了, 好书不厌读百回,熟读课思子自知。而我想要成为全场最靓的仔,就必须坚持通过学习来获取更多知识,用知识改变命运,用博客见证成长,用行动证明我在努力。
不温不火
,本意是希望自己性情温和
。作为一名互联网行业的小白,博主写博客一方面是为了记录自己的学习过程,另一方面是总结自己所犯的错误希望能够帮助到很多和自己一样处于起步阶段的萌新。但由于水平有限,博客中难免会有一些错误出现,有纰漏之处恳请各位大佬不吝赐教!暂时只有csdn这一个平台,博客主页:https://buwenbuhuo.blog.csdn.net/
目录
RDD的 Action 操作
1. reduce(func)
// 1.创建一个RDD[Int] scala> val rdd1 = sc.makeRDD(1 to 10,2) rdd1: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[85] at makeRDD at <console>:24 // 2.聚合RDD[Int]所有元素 scala> rdd1.reduce(_+_) res50: Int = 55 // 3.创建一个RDD[String] scala> val rdd2 = sc.makeRDD(Array(("a",1),("a",3),("c",3),("d",5))) rdd2: org.apache.spark.rdd.RDD[(String, Int)] = ParallelCollectionRDD[86] at makeRDD at <console>:24 // 4.聚合RDD[String]所有数据 scala> rdd2.reduce((x,y)=>(x._1 + y._1,x._2 + y._2)) res51: (String, Int) = (adca,12)
2. collect()
// 1.创建一个RDD scala> val rdd = sc.parallelize(1 to 10) rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at <console>:24 // 2.将结果收集到Driver端 scala> rdd.collect res0: Array[Int] = Array(1, 2, 3, 4, 5, 6, 7, 8, 9, 10)
3. count()
// 1.创建一个RDD scala> val rdd = sc.parallelize(1 to 10) rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at <console>:24 // 2.统计该RDD的条数 scala> rdd.count res1: Long = 10
4. first()
// 1.创建一个RDD scala> val rdd = sc.parallelize(1 to 10) rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at <console>:24 // 2.统计该RDD的条数 scala> rdd.first res2: Int = 1
5.take(n)
take 的数据也会拉到 driver 端, 应该只对小数据集使用
// 1.创建一个RDD scala> val rdd = sc.parallelize(Array(2,5,4,6,8,3)) rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[2] at parallelize at <console>:24 // 2.统计该RDD的条数 scala> rdd.take(3) res10: Array[Int] = Array(2, 5, 4)
6.takeOrdered(n)
// 1.创建一个RDD scala> val rdd = sc.parallelize(Array(2,5,4,6,8,3)) rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[2] at parallelize at <console>:24 // 2.统计该RDD的条数 scala> rdd.takeOrdered(3) res18: Array[Int] = Array(2, 3, 4)
7.aggregate
def aggregate[U: ClassTag](zeroValue: U)(seqOp: (U, T) => U, combOp: (U, U) => U): U
zeroValue 分区内聚合和分区间聚合的时候各会使用一次.
// 1.创建一个RDD scala> var rdd1 = sc.makeRDD(1 to 10,2) rdd1: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[88] at makeRDD at <console>:24 // 2.将该RDD所有元素相加得到结果 scala> rdd.aggregate(0)(_+_,_+_) res22: Int = 55
8.fold
// 1.创建一个RDD scala> var rdd1 = sc.makeRDD(1 to 10,2) rdd1: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[88] at makeRDD at <console>:24 // 2.将该RDD所有元素相加得到结果 scala> rdd.fold(0)(_+_) res24: Int = 55
9.saveAsTextFile(path)
将数据集的元素以textfile的形式保存到HDFS文件系统或者其他支持的文件系统,对于每个元素,Spark 将会调用toString方法,将它装换为文件中的文本10.saveAsSequenceFile(path)
将数据集中的元素以 Hadoop sequencefile 的格式保存到指定的目录下,可以使 HDFS 或者其他 Hadoop 支持的文件系统。11.saveAsObjectFile(path)
用于将 RDD 中的元素序列化成对象,存储到文件中。12.countByKey()
// 1.创建一个PairRDD scala> val rdd = sc.parallelize(List((1,3),(1,2),(1,4),(2,3),(3,6),(3,8)),3) rdd: org.apache.spark.rdd.RDD[(Int, Int)] = ParallelCollectionRDD[95] at parallelize at <console>:24 // 2.统计每种key的个数 scala> rdd.countByKey res63: scala.collection.Map[Int,Long] = Map(3 -> 2, 1 -> 3, 2 -> 1)
13.foreach(func)
// 1.创建一个RDD scala> var rdd = sc.makeRDD(1 to 5,2) rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[107] at makeRDD at <console>:24 // 2.对该RDD每个元素进行打印 scala> rdd.foreach(println(_)) 3 4 5 1 2
如果我的博客对你有帮助、如果你喜欢我的博客内容,请“” “评论”“”
一键三连哦!听说的人运气不会太差,每一天都会元气满满呦!如果实在要白嫖的话,那祝你开心每一天,欢迎常来我博客看看。
码字不易,大家的支持就是我坚持下去的动力。后不要忘了关注
我哦!
本网页所有视频内容由 imoviebox边看边下-网页视频下载, iurlBox网页地址收藏管理器 下载并得到。
ImovieBox网页视频下载器 下载地址: ImovieBox网页视频下载器-最新版本下载
本文章由: imapbox邮箱云存储,邮箱网盘,ImageBox 图片批量下载器,网页图片批量下载专家,网页图片批量下载器,获取到文章图片,imoviebox网页视频批量下载器,下载视频内容,为您提供.
阅读和此文章类似的: 全球云计算