Mac部署spark2.4.4

ByteGalacticEcho
• 阅读 1330

环境信息

  1. 操作系统:macOS Mojave 10.14.6
  2. JDK:1.8.0_211 (安装位置:/Library/Java/JavaVirtualMachines/jdk1.8.0_211.jdk/Contents/Home)

前提条件

请参考《Mac部署hadoop3(伪分布式)》一文,在Mac上事先部署好hadoop3

部署步骤

  1. 安装scala:
brew install scala
  1. 配置scala的环境变量,打开文件<font color="blue">~/.bash_profile</font>,增加以下配置内容:
export SCALA_HOME=/usr/local/Cellar/scala/2.13.0
export PATH=$PATH:$SCALA_HOME/bin
  1. 执行命令<font color="blue">source ~/.bash_profile</font>,再验证scala:
base) zhaoqindeMBP:~ zhaoqin$ scala -version
Scala code runner version 2.13.0 -- Copyright 2002-2019, LAMP/EPFL and Lightbend, Inc.
  1. 下载spark,地址是:http://spark.apache.org/downl... ,如下图红框:

Mac部署spark2.4.4

  1. 将下载的文件在<font color="blue">/usr/local/</font>目录下解压,并将文件夹名字从<font color="blue">spark-2.4.4-bin-hadoop2.7</font>改为<font color="blue">spark</font>
  2. 配置spark的环境变量,打开文件<font color="blue">~/.bash_profile</font>,增加以下配置内容:
export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin
  1. 执行命令<font color="blue">source ~/.bash_profile</font>使配置生效;
  2. 打开文件<font color="blue">spark/conf/spark-env.sh</font>,在尾部增加以下三行:
export SCALA_HOME=/usr/local/Cellar/scala/2.13.0
export SPARK_MASTER_IP=localhost
export SPARK_WORKER_MEMORY=2G
  1. 确保hdfs和yarn已经启动,然后执行命令<font color="blue">spark-shell</font>,即可启动spark服务:
To update your account to use zsh, please run `chsh -s /bin/zsh`.
For more details, please visit https://support.apple.com/kb/HT208050.
(base) zhaoqindeMBP:~ zhaoqin$ spark-shell
19/10/27 13:33:51 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
Spark context Web UI available at http://zhaoqindembp:4040
Spark context available as 'sc' (master = local[*], app id = local-1572154437623).
Spark session available as 'spark'.
Welcome to
      ____              __
     / __/__  ___ _____/ /__
    _\ \/ _ \/ _ `/ __/  '_/
   /___/ .__/\_,_/_/ /_/\_\   version 2.4.4
      /_/

Using Scala version 2.11.12 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_211)
Type in expressions to have them evaluated.
Type :help for more information.

scala>

至此,Mac机器上的hadoop和spark都运行起来了,希望本文能给您带来一些参考。

https://github.com/zq2599/blog_demos

点赞
收藏
评论区
推荐文章
blmius blmius
3年前
MySQL:[Err] 1292 - Incorrect datetime value: ‘0000-00-00 00:00:00‘ for column ‘CREATE_TIME‘ at row 1
文章目录问题用navicat导入数据时,报错:原因这是因为当前的MySQL不支持datetime为0的情况。解决修改sql\mode:sql\mode:SQLMode定义了MySQL应支持的SQL语法、数据校验等,这样可以更容易地在不同的环境中使用MySQL。全局s
美凌格栋栋酱 美凌格栋栋酱
6个月前
Oracle 分组与拼接字符串同时使用
SELECTT.,ROWNUMIDFROM(SELECTT.EMPLID,T.NAME,T.BU,T.REALDEPART,T.FORMATDATE,SUM(T.S0)S0,MAX(UPDATETIME)CREATETIME,LISTAGG(TOCHAR(
Stella981 Stella981
3年前
Opencv中Mat矩阵相乘——点乘、dot、mul运算详解
Opencv中Mat矩阵相乘——点乘、dot、mul运算详解2016年09月02日00:00:36 \牧野(https://www.oschina.net/action/GoToLink?urlhttps%3A%2F%2Fme.csdn.net%2Fdcrmg) 阅读数:59593
Stella981 Stella981
3年前
Mac部署spark2.4.4
环境信息1.操作系统:macOSMojave10.14.62.JDK:1.8.0\_211(安装位置:/Library/Java/JavaVirtualMachines/jdk1.8.0\_211.jdk/Contents/Home)前提条件请参考《Mac部署hadoop3(伪分布式)》(https://www
Stella981 Stella981
3年前
Linux查看GPU信息和使用情况
1、Linux查看显卡信息:lspci|grepivga2、使用nvidiaGPU可以:lspci|grepinvidia!(https://oscimg.oschina.net/oscnet/36e7c7382fa9fe49068e7e5f8825bc67a17.png)前边的序号"00:0f.0"是显卡的代
Stella981 Stella981
3年前
K8S环境的Jenkin性能问题处理
环境信息在K8S环境通过helm部署了Jenkins(namespace为helmjenkins),用于日常Java项目构建:1.kubernetes:1.152.jenkins:2.190.23.helm版本:2.16.1如果您想了解helm部署Jenkins的详情,请参考《》问题描述在Jenkins任
Stella981 Stella981
3年前
KVM调整cpu和内存
一.修改kvm虚拟机的配置1、virsheditcentos7找到“memory”和“vcpu”标签,将<namecentos7</name<uuid2220a6d1a36a4fbb8523e078b3dfe795</uuid
Stella981 Stella981
3年前
Mac部署hadoop3(伪分布式)
环境信息1.操作系统:macOSMojave10.14.62.JDK:1.8.0\_211(安装位置:/Library/Java/JavaVirtualMachines/jdk1.8.0\_211.jdk/Contents/Home)3.hadoop:3.2.1开通ssh在"系统偏好设置""共享",设置如
Easter79 Easter79
3年前
Twitter的分布式自增ID算法snowflake (Java版)
概述分布式系统中,有一些需要使用全局唯一ID的场景,这种时候为了防止ID冲突可以使用36位的UUID,但是UUID有一些缺点,首先他相对比较长,另外UUID一般是无序的。有些时候我们希望能使用一种简单一些的ID,并且希望ID能够按照时间有序生成。而twitter的snowflake解决了这种需求,最初Twitter把存储系统从MySQL迁移
Stella981 Stella981
3年前
Elasticsearch6.7 Kibana6.7 Windows安装过程
一、前提条件  Java1.8.131以上SDK确认安装,不能是预览版(预览版时只能localhost访问,不能使用IP访问)  JAVA\_HOME环境变量设置OK二、Elasticsearch6.7安装  1、解压安装文件  2、config目录,修改elasticsearch.yml文件,设置cluster.name、node.na
玉宇琼楼 玉宇琼楼
1年前
本地有多个java版本8,11,15,17但是每次执行代码后,版本没变化?
exportJAVAHOME/Library/Java/JavaVirtualMachines//Contents/Home这个问题通常是由于系统默认使用的Shell不同导致的。在Mac上,默认的Shell是bash,但是在较新的版本中,默认的Shell已
ByteGalacticEcho
ByteGalacticEcho
Lv1
等待着大雪的纷纷扬扬,把每一个梦筑成洁白的巢。
文章
6
粉丝
0
获赞
0