admin 管理员组

文章数量: 1184232

windows下安装spark

  • windows下安装spark
    • 1、安装jdk
    • 2、安装scala(注意版本)
    • 3、下载spark
    • 4、安装hadoop
    • 5、下载winutils(winutils.exe是在window系统上安装hadoop时所需要的winutils文件)
    • 6、运行spark-shell

windows下安装spark

1、安装jdk

2、安装scala(注意版本)

3、下载spark

下载地址

  • 将下载的文件解压到一个目录,注意目录不能有空格,比如说不能解压到C:\Program Files(x86)
  • 编辑Path环境变量添加路径

4、安装hadoop

下载地址

  • 点击binary下载2.9.2版本
  • 解压后配置系统变量

在Path添加

  • 可能会疑惑为什么spark对应的hadoop是2.7但是我安装的是2.9.2,因为我能下到的只有2.9.2,但是实测也能用

5、下载winutils(winutils.exe是在window系统上安装hadoop时所需要的winutils文件)

下载地址

下载对应版本

接下来将bin替换原来Hadoop中的bin

6、运行spark-shell

本文标签: Windows spark