大数据Hadoop、spark笔记 第三章:Spqrk应用基础

大数据Hadoop、spark笔记(一)-优快云博客

第二章 spark设计与原理-优快云博客

第三章:Spqrk应用基础-优快云博客

第四章:流计算-优快云博客

Spqrk应用基础:

Pyspark –master<master-url>(--jars)  按指定模式运行pyspark

若 master-url=yarm则默认为client模式

若直接pyspark运行则默认local[*]模式

打开spark:

  Cd /usr/local/spark    移动到spark文件位置(/usr/local是通常的文件安装位置)

  ./bin/pyspark         打开

执行.py代码

  Cd /usr/local/spark/mycode/python  移动到.py文件位置,通常为该路径

  Python3 test.py                   执行

或者用spark自带的python执行:

  格式:

  语法(python位置+文件位置): 用\>换行

Spark集群环境搭建:课时22

RDD编程

创建RDD:两种方法

 法一:从文件系统加载

    使用函数.testfile() 括号内是数据,可以是:本地数据、HDFS数据、云端数据

例:

一个○是一个RDD元素。sc是sparkcontext(任务控制节点、指挥官)。如果是pyspark的交互式执行环境,系统会默认创建sc,但如果要编写独立执行文件,需要手动编写。例子中>>>明显是交互式环境。文件目录中用了三个/表示是本地文件。

RDD保存到本地:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值