摘要:类似包中的功能这很好的解决了的大数据级瓶颈问题。也支持分布式的机器学习算法,比如使用机器学习库。部署本文将通过讲解如何快速部署容器,并通过一些简单的机器学习例子展示如何使用这个航母级别的组合拳。
介绍题图为美国尼米兹核动力航空母舰
大数据时代,我们常常面对海量数据而头疼。作为学统计出身的人,我们想折腾大数据但又不想学习Hadoop或者Java,我们更倾向于把精力放在建模和算法设计上,SparkR和Docker的完美结合,让R的计算直接从一架战斗机的当兵作战华丽转变为一个航空母舰战斗群!不仅仅简化了分布式计算的操作,还简化了安装部署的环节,我们只几乎不需要做什么改动就可以直接运用R中的data frame进行分布式的计算。
什么是SparkR参考前文 打造大数据产品:Shiny的Spark之旅,我们可以知道,SparkR是一个为R提供了轻量级的Spark前端的R包。 SparkR提供了一个分布式的data frame数据结构,解决了 R中的data frame只能在单机中使用的瓶颈,它和R中的data frame 一样支持许多操作,比如select,filter,aggregate等等。(类似dplyr包中的功能)这很好的解决了R的大数据级瓶颈问题。 SparkR也支持分布式的机器学习算法,比如使用MLib机器学习库。
什么是Docker参考前文 打造数据产品的快速原型:Shiny的Docker之旅,我们也可以知道,Docker是一种类似于虚拟机的技术,主要解决标准化快速部署的问题,在Docker中安装的软件和主机中的软件可以完全隔离,并通过Daocloud或者hub.docker.com等云服务快速建立Docker仓库,快速复用Docker镜像。Docker已经不仅仅是DevOps人员手中的神器了,每一个开发者都应该学会如何使用Docker。
为什么要结合SparkR和DockerSparkR的精髓在于分布式计算,而Docker的精髓在于标准容器的拓展性,SparkR和Docker的组合充分结合了二者各自的优点,将分布式应用底层化繁为简,为高层计算直接暴露接口,给科学计算节省了大量时间。
部署本文将通过Docker讲解如何快速部署SparkR-RStudio容器,并通过一些简单的机器学习例子展示如何使用这个航母级别的组合拳。
步骤一:安装Docker和Daocloud由于国内的镜像质量不够高,国外的镜像下载速度比较慢,出于试验的考虑,建议大家可以尝试使用Daocloud的镜像加速服务。
首先,我们需要在Daocloud注册一个账号,然后选择镜像加速,根据指示选择主机并安装Docker和Daocloud加速器。
步骤二:安装Spark-RStudio感谢 vinicius85 在GitHub上的开源贡献,为我们已经做好了 Spark1.6+R+RStduio的镜像,我们利用daocloud加速拉取镜像。
dao pull vinicius85/spark-rstudio
以daemon形式运行容器,暴露Rstudio-server默认的8787端口, 并持久化docker内的/srv目录下的所有文件作为通讯。
docker run -d -v /home/docker:/srv -p 8787:8787 --name sparkrstudio vinicius85/sparkr-rstudio
或者通过下面最新的方式安装
docker run -d -p 8787:8787 --name financer index.tenxcloud.com/7harryprince/sparkr-rstudio步骤三:配置RStudio登陆账号
参考前文 R语言工程化实践:RStudio Server环境快速配置教程
docker exec -d sparkrstudio bash命令表示以daemon形式执行容器中的shell脚本
我们设置一下RStudio-Server的账号密码
docker exec -d sparkrstudio bash adduser harryzhu # 设置新用户名 docker exec -d sparkrstudio bash passwd harryzhu # 设置该用户的密码步骤四:登陆RStudio
ifconfig命令可以查看到Docker当前的IP地址,透过这个IP,我们可以访问到RStudio-Server。
比如:
查看资源占用情况
docker stats sparkrstudio
CONTAINER CPU % MEM USAGE / LIMIT MEM % NET I/O BLOCK I/O sparkrstudio 4.50% 481.3 MB / 5.039 GB 9.55% 133.6 kB / 117.4 kB 3.252 MB / 135.2 kB机器学习示例:
出于演示的考虑,这里引用并稍微改进了 tcosta 完成的一个逻辑回归的例子:
初始化使用SparkR之前,我们需要确定,我们的容器内存要在2G以上,如果用AWS的乞丐版套装,马上就会报内存不足的错误。
Error in sparkR.init(master = "local") : JVM is not ready after 10 seconds
如果内存不足,可以退出docker并且在虚拟机中重新提高docker的内存和cpu的配置。
# 配置环境变量 Sys.setenv(SPARK_HOME="/opt/spark-1.6.0-bin-hadoop2.6") .libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"), .libPaths())) Sys.setenv(JAVA_HOME="/usr/lib/jvm/java-8-oracle/") # 加载 SparkR包 library(SparkR) # 初始化RRD #sc <- sparkR.init(master = "local") #sqlContext <- sparkRSQL.init(sc) # spark 2.0 后改为 sc <- sparkR.session(master = "local") # 创建DataFrame #mtcarsDF <- createDataFrame(sqlContext, mtcars) mtcarsDF <- createDataFrame( mtcars) head(mtcarsDF)
mpg cyl disp hp drat wt qsec vs am gear carb 1 21.0 6 160 110 3.90 2.620 16.46 0 1 4 4 2 21.0 6 160 110 3.90 2.875 17.02 0 1 4 4 3 22.8 4 108 93 3.85 2.320 18.61 1 1 4 1 4 21.4 6 258 110 3.08 3.215 19.44 1 0 3 1 5 18.7 8 360 175 3.15 3.440 17.02 0 0 3 2 6 18.1 6 225 105 2.76 3.460 20.22 1 0 3 1逻辑回归
model <- glm(vs ~ mpg + disp + hp + wt , data = mtcarsDF, family = "binomial")# 逻辑回归 # model <- glm(vs ~ mpg + disp + hp + wt , data = mtcarsDF, family = "gaussian")# 线性回归 predictions <- predict(model, newData = mtcarsDF ) modelPrediction <- select(predictions, "vs", "prediction") head(modelPrediction)
vs prediction 1 0 0.58006945 2 0 0.64060709 3 1 0.72468718 4 1 0.47803842 5 0 0.06070972 6 1 0.54994276模型评估
# error变量: 观测值和预测值的差值 modelPrediction$error <- abs(modelPrediction$vs - modelPrediction$prediction) # modelPrediction 现在对 SQLContext 是可见的 # registerTempTable(modelPrediction, "modelPrediction") # Spark 2.0 之后api改为 createTempTable(modelPrediction, "modelPrediction") #num_errors <- sql(sqlContext, "SELECT count(error) FROM modelPrediction WHERE error = 1") #total_errors <- sql(sqlContext, "SELECT count(error) FROM modelPrediction") num_errors <- sql( "SELECT count(error) FROM modelPrediction WHERE error = 1") total_errors <- sql( "SELECT count(error) FROM modelPrediction") # 模型错误率 training_acc <- collect(num_errors) / collect(total_errors) training_acc
_c0 1 0参考资料
打造数据产品的快速原型:Shiny的Docker之旅
R语言工程化实践:RStudio Server环境快速配置教程
打造大数据产品:Shiny的Spark之旅
Tiago Vinícius: SparkR 1.5 MLlib Logistic Regression Example
SparkR: Distributed data frames with Spark and R
SparkR R frontend for Spark
刘志强, et al. "基于 SparkR 的分类算法并行化研究." Journal of Frontiers of Computer Science and Technology 9.11 (2015): 1281-1294.
用Parallel和foreach包玩转并行计算
Zeppelin跟SparkR使用spark 1.5+的分析平台建置
Fast learn scala
Spark在美团的实践
作为分享主义者(sharism),本人所有互联网发布的图文均遵从CC版权,转载请保留作者信息并注明作者 Harry Zhu 的 FinanceR专栏:https://segmentfault.com/blog...,如果涉及源代码请注明GitHub地址:https://github.com/harryprince。微信号: harryzhustudio
商业使用请联系作者。
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/26554.html
摘要:概述我非常认同前百度数据工程师现神策分析创始人桑老师最近谈到的数据分析三重境界统计计数多维分析机器学习数据分析的统计计数和多维分析,我们通常称之为数据探索式分析,这个步骤旨在了解数据的特性,有助于我们进一步挖掘数据的价值。 showImg(https://camo.githubusercontent.com/f98421e503a81176b003ddd310d97e1e1214625...
摘要:此刻的后手指依旧飞速地敲打键盘,丝毫没有要停不下来意思。阅读本期技术周刊,你不光能弄明白什么是,使用的意义何在,还将被传授秘籍,以达的境界。周刊筛选的每篇内容,是作者的独到见解,踩坑总结和经验分享。 showImg(https://segmentfault.com/img/bVC5qJ?w=900&h=385); 啪嗒啪嗒,啪嗒啪嗒,听到后排动感十足的清脆键盘响,我就能猜到公司程序员定...
摘要:在实际的工程中,我们的服务器大多是基于的,比如常见的等。这一次,我们将继续利用神器,快速初始化环境的配置,并结合实现代码的版本控制。对于的问题,我们可以选择建立一个认证的,也可以在中设置为忽略。 介绍 RStudio Server 是 RStudio 公司打造的一款基于 Web 的开源编辑器,如果你熟悉 RStudio的桌面版本,那么使用RStudio Server对你来说基本上没什么...
摘要:标识符与关键字标识符指类名包括接口枚举抽象类方法名变量常量名包名等可以自定义的字符组合。如果基本功能在不断改变,那么就需要使用抽象类。抽象类可以实现接口,抽象类是否可继承实体类,但前提是实体类必须有明确的构造函数。 欢迎进入JAVA基础课程 博客地址:https://blog.csdn.net/houjiyu...本系列文章将主要针对JAVA一些基础知识点进行讲解,为平时归纳所结,不管...
阅读 930·2021-09-26 09:55
阅读 3174·2021-09-22 15:36
阅读 2949·2021-09-04 16:48
阅读 3118·2021-09-01 11:41
阅读 2572·2019-08-30 13:49
阅读 1472·2019-08-29 18:46
阅读 3528·2019-08-29 17:28
阅读 3409·2019-08-29 14:11