Python爬虫,将爬取到的信息转换为DataFrame形式,并以csv格式存储(以药监总局数据为例)

本文介绍了如何通过Python爬取NMPA网站的数据,首先获取药品动态列表,然后深入解析详情并转化为DataFrame,最后持久化为CSV文件。
#动态加载数据,并将数据转换为DataFrame格式,并将其转换为csv格式
import json
import requests
import pandas as pd


def getId():#获取动态数据的id信息
    idurl = r'http://scxk.nmpa.gov.cn:81/xk/itownet/portalAction.do?method=getXkzsList'
    headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.61 Safari/537.36'}
    idlist = []
    for page in range(1,20):#获取数据的页数
        page =str(page)#将页数转换为字符串格式
        data = {#参数
            'on': 'true',
            'page': page,
            'pageSize': '15',
            'productName':'',
            'conditionType': '1',
            'applyname':'',
            'applysn':''
        }
        responce = requests.post(url=idurl,headers=headers,data=data).json()
        print(responce)
        print("---------------------------------------")
        for dic in responce['list']:
            idlist.append(dic['ID'])
    return idlist

def getInformation(idlist):#获取动态数据的详细信息
    url = 'http://scxk.nmpa.gov.cn:81/xk/itownet/portalAction.do?method=getXkzsById'
    headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.61 Safari/537.36'}
    inforlist = []
    for id in idlist:
        data = {
            'id':id
        }
        responce = requests.post(url=url,data=data,headers=headers).json()
        inforlist.append(responce)
    return inforlist


def getDataFrame(idlist):#持久化存储
    datall = pd.DataFrame()
    for item in idlist:
        df = pd.DataFrame.from_dict(item,orient='index').T
        datall = datall.append(df)
    datall.to_csv('data.csv')


if __name__ == '__main__':
    id = getId()
    #print(id)
    detailinformation = getInformation(id)
    #print(detailinformation)
    getDataFrame(detailinformation)
    print("over!!!!")

在这里插入图片描述
爬取数据后的具体结果如上图所示。

要将字典数据转换为DataFrame,并保CSV文件,你可以使用pandas库中的`DataFrame`构造函数和`to_csv`方法。首先,你需要创建一个包含数据的字典,然后通过`pd.DataFrame()`将其转换为DataFrame对象。之后,利用`to_csv()`方法将DataFrame导出为CSV文件。以下是一个简单的示: 参考资源链接:[Python DataFrame入门与操作详解](https://wenku.youkuaiyun.com/doc/6u3hkqq7ta?spm=1055.2569.3001.10343) ```python import pandas as pd # 创建一个包含字典数据DataFrame data = { 'Name': ['Tom', 'Nick', 'Krish', 'Jack'], 'Age': [20, 21, 19, 18] } df = pd.DataFrame(data) # 将DataFrameCSV文件 df.to_csv('output.csv', index=False) # index=False表示在输出文件中不保索引 ``` 要读取Excel文件中的数据DataFrame,pandas提供了非常便捷的`read_excel`函数。假设你有一个名为`input.xlsx`的Excel文件,你可以使用以下代码来加载数据: ```python import pandas as pd # 读取Excel文件数据DataFrame df = pd.read_excel('input.xlsx') # 显示DataFrame内容 print(df) ``` 在这里,`pd.read_excel()`默认读取第一个工作表的数据,但你可以通过`sheet_name`参数来指定不同的工作表。如果你想要读取特定的列,也可以使用`usecols`参数来实现。 通过学习这些基本操作,你可以轻松地处理日常的数据分析任务。如果你希望更深入地掌握DataFrame的操作,包括更高级的数据处理和优化技巧,我强烈推荐你查看《Python DataFrame入门与操作详解》这本书。它不仅为你提供了基础的操作指南,还包含了一些高级主题,如数据合并、连接、分组等操作,这对于任何希望深化其数据处理能力的Python开发者来说都是宝贵的资源。 参考资源链接:[Python DataFrame入门与操作详解](https://wenku.youkuaiyun.com/doc/6u3hkqq7ta?spm=1055.2569.3001.10343)
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

iWTknow

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值