摘要:学习致谢一数据数据网站二需求针对用户查询日志数据中不同字段,使用读取日志数据,封装到数据集中,调用函数和函数进行处理不同业务统计分析三分词工具测试使用比较流行好用的中文分区面向生产环境的自然语言处理工具包,是由一系列模
https://www.bilibili.com/video/BV1Xz4y1m7cv?p=36
数据网站: http: //www.sogou.com/labs/resource/q.php
针对SougoQ用户查询日志数据中不同字段,使用SparkContext读取日志数据,封装到RDD数据集中,调用Transformation函数和Action函数进行处理不同业务统计分析
使用比较流行好用的中文分区:HanLP,面向生产环境的自然语言处理工具包,HanLP是由一系列模型与算法组成的Java工具包,目标是普及自然语言处理在生产环境中的应用
官方网站:http://www.hanlp.com/ 添加maven依赖
<dependency><groupId>com.hankcsgroupId><artifactId>hanlpartifactId><version>portable-1.7.7version>dependency>
import com.hankcs.hanlp.HanLPimport com.hankcs.hanlp.seg.common.Termimport scala.collection.JavaConverters._object HanLPTest { object HanLPTest { def main(args: Array[String]):Unit = { val words = "[HanLP入门案例]" val terms: util.List[Term] = HanLP.segment(words)//对词进行分段 println(terms)//直接打印java的List:[[/w,HanLP/nx,入门/vn,案例/n,]/w] println(terms.asScala.map(_.word))//转为scaLa的List:ArrayBuffer([,HanLP,入门,案例,]) val cleanwords1: String = words.replaceAll("HM[/NN]","")//将"["或"]"替换为空""//"HanLP入门案例" println(cleanwords1)//HanLP入门案例 println(HanLP.segment(cleanwords1).asScala.map(_.word))//ArrayBuffer (HanLP,入门,案例) val log = """e:00:00 2982199073774412 [360安全卫士] 8 3 download.it.com.cn/softweb/software/firewall/antivirus/20036/179""" val cleanwords2 = log.split("Ils+")(2)//7[360安全卫士] println(HanLP.segment(cleanwords2).asScala.map(_.word))//ArrayBuffer(360,安全卫士) } }}
运行结果
import com.hankcs.hanlp.HanLPimport org.apache.spark.rdd.RDDimport org.apache.spark.{SparkConf, SparkContext}import scala.collection.mutable/** * Author * DESC 需求:对SougouSearchLog进行分词并统计如下指标 * 1.热门搜索词 * 2.用户热门搜索词(带上用户id) * 3.各个时间段搜索热度 */object SouGouSearchAnalysis { def main(args: Array[String]): Unit = { //TODO 0.准备环境 val conf: SparkConf=new SparkConf().setAppName("spark").setMaster("local[*]") val sc: SparkContext=new SparkContext(conf) sc.setLogLevel("WARN") //TODO 1.加载数据 val lines:RDD[String]=sc.textFile("data/SogouQ.sample") //TODO 2.处理数据 //封装数据 val SogouRecordRDD: RDD[SogouRecord]=lines.map(line=>{//map是一个进去一个出去 var arr: Array[String]=line.split("//s+") SogouRecord( arr(0), arr(1), arr(2), arr(3).toInt, arr(4).toInt, arr(5) ) }) //切割数据 val wordsRDD:RDD[String]=SogouRecordRDD.flatMap(record=>{ //flatmap是一个进去多个出去会被压扁 //360安全卫士==》[360,安全卫士] val wordsStr:String =record.queryWords.replaceAll("//[|//]","")//360安全卫士 import scala.collection.JavaConverters._//将Java集合转为Scala集合 HanLP.segment(wordsStr).asScala.map(_.word)//ArrayBuffer(360,安全卫士) }) //TODO 3.统计指标 //1.热门搜索词 val result1: Array[(String,Int)]=wordsRDD .filter(word=> !word.equals(".")&& !word.equals("+")) .map((_,1)) .reduceByKey(_+_) .sortBy(_._2,false) .take(10) // 2.用户热门搜索词(带上用户id) val userIdAndWordRDD:RDD[(String,String)]=SogouRecordRDD.flatMap(record=>{ //flatmap是一个进去多个出去会被压扁 //360安全卫士==》[360,安全卫士] val wordsStr:String =record.queryWords.replaceAll("//[|//]","")//360安全卫士 import scala.collection.JavaConverters._//将Java集合转为Scala集合 val words: mutable.Buffer[String]=HanLP.segment(wordsStr).asScala.map(_.word)//ArrayBuffer(360,安全卫士) val userId: String=record.userId words.map(word=>(userId,word)) }) val result2: Array[((String,String),Int)]=userIdAndWordRDD .filter(word=> !word._2.equals(".")&& !word._2.equals("+")) .map((_,1)) .reduceByKey(_+_) .sortBy(_._2,false) .take(10) // 3.各个时间段搜索热度 val result3: Array[(String,Int)]=SogouRecordRDD.map(record=>{ val timeStr:String=record.queryTime val hourAndMinunesStr:String =timeStr.substring(0,5) (hourAndMinunesStr,1) }).reduceByKey(_+_) .sortBy(_._2,false) .take(10) //TODO 4.输出结果 result1.foreach(println) result2.foreach(println) result3.foreach(println) //TODO 5.释放资源 sc.stop() }//准备一个样例类用来封装数据}/**用户搜索点击网页记录Record *@param queryTime 访问时间,格式为:HH:mm:ss *@param userId 用户ID *@param queryWords 查询词 *@param resultRank 该URL在返回结果中的排名 *@param clickRank 用户点击的顺序号 *@param clickUrl 用户点击的URL */case class SogouRecord( queryTime:String, userId:String, queryWords:String, resultRank:Int, clickRank:Int, clickUrl:String )
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/123676.html
摘要:以及大数据平台都已经进行了集成并且处于企业就绪状态。因此,顾客避免浪费时间在安装配置及监控系统方面。注意防止数据频繁移动。 本文源地址:http://www.mongoing.com/blog/post/leaf-in-the-wild-stratio-integrates-apache-spark-and-mongodb-to-unlock-new-customer-insights...
摘要:是设计用来表示数据集的一种数据结构。而正因为满足了这么多特性,所以把叫做,中文叫做弹性分布式数据集。按照这篇论文中文译文的解释,窄依赖是指子的每个分区依赖于常数个父分区即与数据规模无关宽依赖指子的每个分区依赖于所有父分区。 原文链接 写在前面 本系列是综合了自己在学习spark过程中的理解记录 + 对参考文章中的一些理解 + 个人实践spark过程中的一些心得而来。写这样一个系列仅仅是...
阅读 3193·2021-11-18 10:02
阅读 3417·2021-10-11 10:58
阅读 3323·2021-09-24 09:47
阅读 1095·2021-09-22 15:21
阅读 3857·2021-09-10 11:10
阅读 3253·2021-09-03 10:28
阅读 1722·2019-08-30 15:45
阅读 2096·2019-08-30 14:22