Stella981 Stella981
2年前
Spark 配置连接hive 元数据库(mysql)
Spark连接hive元数据库(mysql)方法一:1)打开Hivemetastoreroot@head42~hiveservicemetastore&netstatano|grep9083???2)开启spark连接Mysq
Wesley13 Wesley13
2年前
05.kafka提前准备工作:搭建zookeeper集群环境
总体参考:http://www.cnblogs.com/zhangs1986/p/6564839.html搭建之间同步下spark01、02、03的环境复制/opt/flume这个文件夹到spark02的/opt目录下,同理03scpr/opt/flume/spark02:/opt/scpr/opt/kafka/spar
Stella981 Stella981
2年前
Spark安装教程
注:该教程转自厦门大学大数据课程学习总结Spark的安装过程较为简单,在已安装好Hadoop的前提下,经过简单配置即可使用。安装Spark1.sudotar\zxf~/下载/spark1.6.2binwithouthadoop.tgzC/usr/local/
Stella981 Stella981
2年前
Spark常用的三种计算模式
以计算PI为例子进入spark的安装目录单机local模式提交任务./bin/sparksubmitclassorg.apache.spark.examples.SparkPimasterlocalexamples/jars/sparkexamples\.jaryarnclient模式执
Stella981 Stella981
2年前
Spark2.4.0源码——RpcEnv
参考《Spark内核设计的艺术:架构设计与实现——耿嘉安》NettyRpcEnv概述 Spark的NettyRpc环境的一些重要组件:privatenettyvaltransportConfSparkTransportConf.fromSparkConf(...)privat
Stella981 Stella981
2年前
CDH5.12.1添加spark2.2.0服务
最新的CDH安装包中spark版本为1.6,不过对于勇于尝鲜的同学,官方也提供了spark2的升级包,在CDH中spark1和spark2可以共存,但是由于scala版本的兼容性问题,建议只装一个版本。由于spark依赖于scala所以需要在每个节点安装scala,并配置好SCALA\_HOME并将$SCALA\_HOME/bin加入PATH中。Sca
Stella981 Stella981
2年前
Spark(一)Spark简介
一、官网介绍1什么是Spark官网地址:http://spark.apache.org/(https://www.oschina.net/action/GoToLink?urlhttp%3A%2F%2Fspark.apache.org%2F)!(https://oscimg.oschina.net/oscnet/
Stella981 Stella981
2年前
Spark MLlib 贝叶斯分类算法实例具体代码及运行过程详解
importorg.apache.log4j.{Level,Logger}importorg.apache.spark.{SparkConf,SparkContext}importorg.apache.spark.mllib.classification.{NaiveBayes,NaiveBayesModel}
Stella981 Stella981
2年前
Spark中将对象序列化存储到hdfs
废话不多说,直接贴代码了.spark1.4hbase0.98import org.apache.spark.storage.StorageLevelimport scala.collection.JavaConverters._import java.io.Fileimport java.io.FileIn
京东云开发者 京东云开发者
1个月前
hive 、spark 、flink之想一想
hive1:hive是怎么产生的?2:hive的框架是怎么样的?3:hive执行流程是什么?4:hivesql是如何把sql语句一步一步到最后执行的?5:hivesql任务常用参数调优做过什么?spark6:spark是怎么产生的?7:spark框架是怎么