Spark

下载

官网下载
在这里插入图片描述

解压

在 Users/XXX路径下创建 env 文件, 将解压后的文件移动到 env 路径下
在这里插入图片描述

配置环境变量

打开终端
在这里插入图片描述

sudo vi ~/.bash_profile

按 insert 进入编辑模式

将下面内容复制粘贴进去

#spark
export SPARK_HOME=/Users/wenxiaoyu/env/spark-3.3.1-bin-hadoop3
export PATH=$PATH:$SPARK_HOME/bin
export PYSPARK_PYTHON=python3

注意,此处的python3,可以换成你自己环境的 python命令,具体操作如下
在这里插入图片描述

然后按 esc 键退出编辑模式,输入 :wq 保存退出

source ~/.bash_profile

刷新环境变量

pyspark

执行命令检查 spark 是否正常
在这里插入图片描述

hadoop

下载

官网下载

在这里插入图片描述

解压

类似上面,解压后移动到env 下面

配置环境变量

sudo vi ~/.bash_profile

同上,进入编辑模式

#hadoop
export HADOOP_HOME=/Users/wenxiaoyu/env/hadoop-3.3.4
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin

然后刷新

source ~/.bash_profile 
hadoop

检查 hadoop 命令是否可用

scala

下载cs

brew install coursier/formulas/coursier && cs setup

配置环境变量

在刚才下载的时候输入 y
刷新

source ~/.bash_profile 

下载 scala

cs install scala:3.2.1 && cs install scalac:3.2.1

检查 scala 是否可用

scala

在这里插入图片描述

java

环境变量配置

# JDK
JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk-18.0.2.jdk/Contents/Home
PATH=$JAVA_HOME/bin:$PATH:.
CLASSPATH=$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:.
export JAVA_HOME
export CLASSPATH
export PATH

maven

环境变量配置

# mvn java development
M2_HOME=/usr/local/Cellar/maven/3.8.6
PATH=$M2_HOME/bin:$PATH:.
export M2_HOME
export PATH
Logo

技术共进,成长同行——讯飞AI开发者社区

更多推荐