【分布式编程】四——Pycharm运行Python版Spark程序

  • Post author:
  • Post category:python


前言

此前搭建成功分布式Spark环境,此文介绍使用Pycharm运行Python语言的Spark程序。

操作步骤

安装Pycharm


  1. 点击下载

  2. 过程与

    安装Intellij IDEA

    类似,在此不在赘述。

  3. 进入到安装目录下执行

    ./bin pycharm-sh

配置运行环境

  1. 创建新项目

  2. 新建一个Python文件,这里命名为

    main.py

    from pyspark import SparkContext,SparkConf
    
    conf=SparkConf().setAppName("sparkDemo").setMaster("local")
    sc=SparkContext(conf=conf)
    logFile=



版权声明:本文为tiweeny原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。