2.Spark环境测试

#!/usr/bin/env python
# coding: utf-8

# In[1]:


from pyspark.sql import SparkSession
import findspark
findspark.init()


# In[3]:


# 以本地模式开始spark
# local本地模式
# [*] 最大的线程数量
# [4] 线程数量设置为4
spark = SparkSession.Builder().master("local[*]").getOrCreate()
spark


# In[8]:


# 创建spark的dataframe
df = spark.createDataFrame(
    data=[
        ['py','analysis'],
        ['spakr','bigdata']
    ],
    schema=('name','type')
)
df.show()
# 关闭sparksession
# spark.stop()


# In[9]:


# 创建pandas的dataframe
import pandas as pd
import numpy as np


# In[10]:


pd_df = pd.DataFrame(np.random.rand(100,3))
pd_df.head(10)


# In[11]:


# 从pnadas的dataframe创建的spark的Dataframe
spark_df = spark.createDataFrame(pd_df)
spark_df.show(10)


# In[12]:


# 将spark的Dataframe转换为pnadas的dataframe
pd_df = spark_df.select("*").toPandas()
pd_df.head(10)


# In[ ]:




评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值