双色球网页历史数据爬取

借鉴博客
《十行代码用pandas的read_html爬取中彩网双色球历年全部数据》https://blog.youkuaiyun.com/wwivywwivy/article/details/81810067
数据来源:
http://kaijiang.zhcw.com/zhcw/html/ssq/list_1.html

存在问题:
该文中将同一个单元格中的开奖数据没有提取出来


解决方案:
将开奖数据单元格中的七个号码分别提取存入七个单元格中

import pandas as pd
import csv
import linecache

def get_one_page(page):
    url = 'http://kaijiang.zhcw.com/zhcw/html/ssq/list_%s.html' % (str(page))
    tb = pd.read_html(url, skiprows=[0, 1])[0]  # 跳过前两行 (去除前两行开奖日期	期号	中奖号码	销售额(元)	等信息,后面自己定义标题)
    return tb.drop([len(tb)-1])  # len(tb)是抓取的网页行数,去掉最后一行(去掉最后一行共116 页 /2318 条记录 首页 上一页 下一页 末页 当前第 1 页等信息)

with open(r'F:\PythonFiles\PycharmFile\ssq.csv', 'w', encoding='utf-8-sig', newline='') as csvFile:  #此行注意缩进,不是def定义中的代码#打开文件的方法
    csv.writer(csvFile).writerow(['开奖日期', '期号', '红
爬取双色球历史数据是一个涉及网络请求、HTML解析以及存储结果的过程。为了帮助你了解如何实现这一任务,我们将逐步讲解整个过程,并提供一些关键点和技术栈的选择。 ### 准备工具和库 首先你需要安装必要的Python库来进行网页抓取及解析操作: 1. **requests**: 用于发起HTTP GET/POST 请求获取页面内容。 2. **BeautifulSoup4 或 lxml**: 提供方便的 HTML/XML 文档解析功能。 3. **pandas** (可选): 方便对结构化数据如表格进行处理并保存到文件中。 4. **re** : 正则表达式模块,有时候可以帮助提取特定格式的数据。 你可以通过 pip 安装上述所需的包: ```bash pip install requests beautifulsoup4 pandas ``` ### 编码实践指南 下面是具体的步骤说明: #### 第一步 - 获取目标网站URL 找到一个可靠的发布双色球开奖记录的官方网站,例如中国福彩中心官网等。确定好之后记下其网址链接。 #### 第二步 - 发送 HTTP 请求获得响应文本 利用 `requests.get()` 方法向指定 URL 发起GET请求得到包含所有期数信息在内的完整 HTML 内容。 ```python import requests url = 'http://example.com/ssq/history.html' # 替换为实际地址 response = requests.get(url) html_content = response.text if response.status_code == 200 else None ``` 注意检查状态码是否成功(通常是200)后再继续下一步。 #### 第三步 - 分析页面结构选取合适的标签选择器 打开浏览器开发者工具(F12),定位到想要提取的信息所在的节点路径,比如日期、红蓝号码等等。然后根据实际情况调整CSS Selectors或者XPath规则以便于后续准确无误地筛选所需元素。 #### 第四步 - 解析并抽取有用字段值 结合所选用的解析引擎(这里推荐 BeautifulSoup),按照先前选定的选择器从DOM树中挑出感兴趣的部分。 ```python from bs4 import BeautifulSoup if html_content is not None: soup = BeautifulSoup(html_content,'lxml') # 示例:假设有这样的表格行<tr>, 每一行代表一期彩票的结果. for row in soup.select('table tr'): cells = [td.get_text(strip=True) for td in row.find_all(['th','td'])] date = cells[0] # 假定第1列是开奖日 red_balls = ','.join(cells[1:7]) # 将6个红色球合并成字符串 blue_ball = cells[-1] # 最后一列为蓝色球 print(f"{date},{red_balls},{blue_ball}") ``` #### 第五步 - 存储采集后的数据 最后可以将整理好的信息存入CSV文件或其他形式持久化媒介中。 ```python import csv with open("ssq_results.csv", mode='w', newline='', encoding='utf8') as fobj: writer = csv.writer(fobj) writer.writerow(["Date","Red Balls","Blue Ball"]) ... # 继续上面循环里的打印逻辑,改为writerow()方法即可 print("Data has been successfully saved.") ``` 以上就是简单的爬虫流程概述。当然,在真实环境中还需要考虑到更多因素,包括但不限于反爬机制规避策略、异常情况下的重试逻辑设计等高级话题。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值