sparkmllib中如何实现基于ALS计算

这篇文章主要介绍spark mllib中如何实现基于ALS计算,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!

创新互联公司专业为企业提供潞州网站建设、潞州做网站、潞州网站设计、潞州网站制作等企业网站建设、网页设计与制作、潞州企业网站模板建站服务,10年潞州做网站经验,不只是建网站,更提供有价值的思路和整体网络服务。

运行代码如下

/**
  *  协同过滤算法,基于 (交替最小二乘法) ALS 计算
  *  人以群分,物以类聚,
  *  ALS是统计分析中最常用的一种逼近计算算法.
  *  输入数据集 Ratings 是 ALS 固定输入格式,
  *  Ratings [Int, Int, Double] 即[用户名,物品名,评分]
  */
package spark.collaborativeFiltering

import org.apache.spark.mllib.recommendation.{ALS, Rating}
import org.apache.spark.{SparkConf, SparkContext}

object sparkALS {
  def main(args: Array[String]) {
    val conf = new SparkConf().setAppName("ALS").setMaster("local")
    val sc= new SparkContext(conf)
    val data = sc.textFile("./src/main/spark/collaborativeFiltering/ul.txt")
    val ratings = data.map(_.split(" ") match {
      case Array(user, item, rate) =>
        Rating(user.toInt, item.toInt, rate.toDouble)//将数据集转化为专用的 Rating
    })

    val rank = 2 // 模型中隐藏因子数
    val numInterations = 5 //算法迭代次数
    val model = ALS.train(ratings, rank, numInterations, 0.01) // 进行模型训练
    val result = model.recommendProducts(2, 1)//为用户 2 推荐一个商品
    result.foreach(println)
//Rating(2,15,3.9713808775549495),为用户 2 推荐一个编号 15 的商品,预测评分 3.97 与实际的 4 接近.
  }
}

ul.txt

1 11 2
1 12 3
1 13 1
1 14 0
1 15 1
2 11 1
2 12 2
2 13 2
2 14 1
2 15 4
3 11 2
3 12 3
3 13 1
3 14 0
3 15 1
4 11 1
4 12 2
4 13 2
4 14 1
4 15 4
5 11 1
5 12 2
5 13 2
5 14 1
5 15 4

结果如图

spark mllib中如何实现基于ALS计算

以上是“spark mllib中如何实现基于ALS计算”这篇文章的所有内容,感谢各位的阅读!希望分享的内容对大家有帮助,更多相关知识,欢迎关注创新互联行业资讯频道!


分享文章:sparkmllib中如何实现基于ALS计算
URL链接:http://scyanting.com/article/jeceis.html