Spark中怎么实现矩阵相乘操作

这篇文章将为大家详细讲解有关Spark中怎么实现矩阵相乘操作,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。

我们提供的服务有:成都网站制作、网站设计、微信公众号开发、网站优化、网站认证、和县ssl等。为上千家企事业单位解决了网站和推广的问题。提供周到的售前咨询和贴心的售后服务,是有科学管理、有技术的和县网站制作公司

1,Pom.xml引入 Spark-Mllib 类库



    org.apache.spark
    spark-mllib_2.11
    2.3.1
    runtime

这里需要注意,因为我们需要使用相关API,所以这里runtime这句要去掉,使用默认的依赖方式就行了


    org.apache.spark
    spark-mllib_2.11
    runtime

2,代码

public static void main(String[] args) {
		SparkConf sparkConf = new SparkConf().setAppName("Mllib-test").setMaster("local");
		JavaSparkContext jpc = new JavaSparkContext(sparkConf);
		double[][] data = new double[4][4] ;
		data[0][0] = 0.0;
		data[0][1] = 2.0;
		data[0][2] = 3.0;
		data[0][3] = 4.0;
		
		data[1][0] = 1.0;
		data[1][1] = 3.0;
		data[1][2] = 4.0;
		data[1][3] = 5.0;
		
		data[2][0] = 2.0;
		data[2][1] = 4.0;
		data[2][2] = 5.0;
		data[2][3] = 6.0;
		
		data[3][0] = 3.0;
		data[3][1] = 5.0;
		data[3][2] = 6.0;
		data[3][3] = 7.0;
		
		JavaRDD rdd=jpc.parallelize(Arrays.asList(data)).map(f->{
			long key = new Double(f[0]).longValue();
			double[] value = new double[f.length-1];
			for(int i = 1;i  rdd1 = jpc.parallelize(Arrays.asList(data1)).map(f->{
			long key = new Double(f[0]).longValue();
			double[] value = new double[f.length-1];
			for(int i = 1;i

关于Spark中怎么实现矩阵相乘操作就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。


网页题目:Spark中怎么实现矩阵相乘操作
文章出自:http://scyanting.com/article/jccigi.html