欢迎访问悦橙教程(wld5.com),关注java教程。悦橙教程  java问答|  每日更新
页面导航 : > > 文章正文

Spark Standalone Mode 在 Win10 下搭建开发调试环境,standalonewin10

来源: javaer 分享于  点击 48479 次 点评:265

Spark Standalone Mode 在 Win10 下搭建开发调试环境,standalonewin10


系统环境变量配置

Java Env

略, 确保在cmd终端可以运行java

C:\windows\system32>java -version
java version "1.8.0_131"
Java(TM) SE Runtime Environment (build 1.8.0_131-b11)
Java HotSpot(TM) 64-Bit Server VM (build 25.131-b11, mixed mode)

Scala Env

scala download 下载 scala 安装包 scala-2.12.4.zip for windows 解压

配置系统环境变量, 系统 >> 高级系统设置 >> 高级 >> 环境变量:

  • 新建系统变量SCALA_HOME

  • 编辑系统变量PATH
    新建 内容: %SCALA_HOME%/bin

运行cmd终端:

C:\windows\system32>echo %SCALA_HOME%
D:\hadoop-env\scala-2.12.4

C:\windows\system32>scala -version
Scala code runner version 2.12.4 -- Copyright 2002-2017, LAMP/EPFL and Lightbend, Inc.

Hadoop Env

可以通过 git 下载 Windows binaries for Hadoop versions

配置环境变量

  • 新建变量 HADOOP_HOME

  • 编辑变量PATH ,进行新建: %HADOOP_HOME%/bin

运行终端cmd:

C:\windows\system32>winutils --help
Usage: winutils [command] ...
Provide basic command line utilities for Hadoop on Windows.

The available commands and their usages are:

chmod          Change file mode bits.

Usage: chmod [OPTION] OCTAL-MODE [FILE]
   or: chmod [OPTION] MODE [FILE]
Change the mode of the FILE to MODE.
...

Spark Env

在 Download Apache Spark 下载 spark-2.2.0-bin-hadoop2.7.tgz 压缩包,进行解压

配置环境变量:

  • 新建环境变量 SPARK_HOME

  • 编辑变量PATH ,进行新建: %SPARK_HOME%/bin

在cmd 命令行中运行 spark-shell , 默认以 local 模式运行:

命令行窗口运行 Cluster

  • 启动 Master
    在窗口1中运行: spark-class2.cmd org.apache.spark.deploy.master.Master

  • 启动Slave
    在窗口2中运行: spark-class2.cmd org.apache.spark.deploy.worker.Worker spark://192.168.200.1:7077

  • Standalone 运行状态
    在浏览器中查看运行状态输入: http://192.168.200.1:8080/

Standalone 模式样例运行

创建一个Spark项目, 通过 IntelliJ IDEA , 通过在代码中指定 Master 地址 spark://192.168.200.1:7077

package com.borey.spark

import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.sql.SparkSession

/**
  *
  * Created by Borey.Zhu on 2017/11/16.
  */

object Test {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf()
      .setMaster("spark://192.168.200.1:7077")
      .setAppName("Standalone Test")

    val sc = new SparkContext(conf)
    // 使用windows文件目录通过在路径前面添加file前缀
    val rdd1 = sc.textFile("file:\\D:\\hadoop-env\\data\\*.txt")
    println(rdd1.count())
    sc.stop()
  }
}

运行 Test, 成功 打印输出统计数目为 3:

代码追踪

通过在代码中进行添加断点, 以Debug( Shift + F9)模式运行, 可以Trace代码运行:

相关文章

    暂无相关文章
相关栏目:

用户点评