数据分析---1.数据获取----爬取页面表格信息

成功的秘诀,在永不改变既定的目的

在看到某人的诉求后,并有高手回答,看过后我get了方法,并优化创新方法
带表格信息的网站(网址代码里面有),例如:

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
我对上面四个网站都进行了,爬取,基本相似,但有点区别

"""
@author: cht
@time: 2019/8/18 13:12
"""

# -*- coding: utf-8 -*-

import requests
from bs4 import BeautifulSoup
import pandas as pd
from lxml import etree

def run():
    url="https://mp.weixin.qq.com/s/li7BbNrZy-eOm79D6Eh-mA"
    req=requests.get(url)
    mylist=[["跳蚤属性"],["房源小区名字"],["具体位置"],["组团区域"],["户型"],["面积(㎡)"],["价格(元)"],["楼层"],["装修情况"],["其他信息"],["联系人"],["联系电话"]]
    soup=BeautifulSoup(req.content,"html.parser")
    for it in
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值