spark中怎么实现二次排序
这篇文章给大家介绍spark中怎么实现二次排序,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。
专注于为中小企业提供成都网站设计、成都网站制作服务,电脑端+手机端+微信端的三站合一,更高效的管理,为中小企业昭苏免费做网站提供优质的服务。我们立足成都,凝聚了一批互联网行业人才,有力地推动了超过千家企业的稳健成长,帮助中小企业通过网站建设实现规模扩充和转变。
import org.apache.spark._ import SparkContext._ object SecondarySort { def main(args: Array[String]) { val sparkConf = new SparkConf().setAppName(" Secondary Sort ") sparkConf.set("mapreduce.framework.name", "yarn"); sparkConf.set("spark.rdd.compress", "true"); sparkConf.set("spark.serializer","org.apache.spark.serializer.KryoSerializer"); sparkConf.set("spark.storage.memoryFraction", "0.5"); sparkConf.set("spark.akka.frameSize", "100"); sparkConf.set("spark.default.parallelism", "1"); val sc = new SparkContext(sparkConf) val file = sc.textFile("hdfs://namenode:9000/test/secsortdata") val rdd = file.map(line => line.split("\t")). map(x => (x(0),x(1))).groupByKey(). sortByKey(true).map(x => (x._1,x._2.toList.sortWith(_>_))) val rdd2 = rdd.flatMap{ x => val len = x._2.length val array = new Array[(String,String)](len) for(i <- 0 until len) { array(i) = (x._1,x._2(i)) } array } sc.stop() } }
关于spark中怎么实现二次排序就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。
文章标题:spark中怎么实现二次排序
文章路径:http://scyanting.com/article/gjdhig.html