spark开发环境搭建(idea scala maven)

 时间:2026-02-14 07:42:56

1、scala插件的安装

首先在欢迎界面点击Configure,选择plugins如下图所示:

下面的第三个图是安装后的所以是uninstall 没有安装的话是 install ,安装成功后,点击OK退出

spark开发环境搭建(idea scala maven)

spark开发环境搭建(idea scala maven)

spark开发环境搭建(idea scala maven)

2、全局JDK和Scala SDK的设置如下图所示

spark开发环境搭建(idea scala maven)

spark开发环境搭建(idea scala maven)

3、新建maven项目:

欢迎界面点击Create New Project,在打开的页面左侧边栏中,选择Maven,然后在右侧的Project SDK一项中,查看是否是正确的JDK配置项正常来说这一栏会自动填充的

spark开发环境搭建(idea scala maven)

4、导入spark依赖:

<properties>


        <spark.version>2.4.0</spark.version>
        <scala.version>2.12</scala.version>
    </properties>
    <dependencies>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_${scala.version}</artifactId>
            <version>${spark.version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-streaming_${scala.version}</artifactId>
            <version>${spark.version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-sql_${scala.version}</artifactId>
            <version>${spark.version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-hive_${scala.version}</artifactId>
            <version>${spark.version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-mllib_${scala.version}</artifactId>
            <version>${spark.version}</version>
        </dependency>
    </dependencies>
    <build>
        <plugins>
            <plugin>
                <groupId>org.scala-tools</groupId>
                <artifactId>maven-scala-plugin</artifactId>
                <version>2.15.2</version>
                <executions>
                    <execution>
                        <goals>
                            <goal>compile</goal>
                            <goal>testCompile</goal>
                        </goals>
                    </execution>
                </executions>
            </plugin>
            <plugin>
                <artifactId>maven-compiler-plugin</artifactId>
                <version>3.6.0</version>
                <configuration>
                    <source>1.8</source>
                    <target>1.8</target>
                </configuration>
            </plugin>
            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-surefire-plugin</artifactId>
                <version>2.19</version>
                <configuration>
                    <skip>true</skip>
                </configuration>
            </plugin>
        </plugins>

    </build>

5、编写sprak代码

打印hellow world!

import org.apache.spark.sql.{ SparkSession}

object SparkHellowWorld {


  def main(args: Array[String]) {
  val spark= SparkSession.builder.master("local").appName("WordCountLocal").getOrCreate 

   //如果是打成jar包运行则需要去掉 "local"因为在参数中会指定


      spark.sparkContext.makeRDD(Seq("hellow Word!"))  

    .collect().foreach(println(_))

   }


}

按如下图在本地运行

spark开发环境搭建(idea scala maven)

  • VB 如何设置横向纵向
  • Excel中如何按照规律提取部分字符串?
  • Bandicut怎么设置输入数字后自动移动光标
  • 如何才能快速打开指定文件夹
  • vf6.0标签表单控件,显示当前日期
  • 热门搜索
    中山旅游景点大全 陕西旅游出版社 北京长城旅游 东山岛旅游 旅游地图全图高清版 瑞典旅游 临沂旅游景点大全 旅游签证办理流程 茂县旅游 大阪旅游