python爬虫(1)——简单的爬取网页的信息

本文记录了使用Python爬虫获取Tatoeba网站中文句子的过程,包括使用requests和BeautifulSoup解析网页,以及处理HTTP 403错误。通过多线程优化了爬取效率,并探讨了未来学习方向:动态网页爬取和线程进程知识。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

获取网上真实的语料数据,本身对Py的掌握不是很好,记录下自己学习的过程,希望对你有帮助。
#python3
获得taoeba的语料(不知道从哪翻到的这个网站,有各国语言的句子,访问速度较慢

# -*- coding: utf-8 -*-
import requests
from bs4 import BeautifulSoup as BS
import time
import re
python3中的urllib以及 requests http://blog.youkuaiyun.com/drdairen/article/details/51149498
#对句子列表网页进行获取,得到一个list包含句子链接
def get_selist(url):
    try:
        response = requests.get(url, headers=headers) #访问所有句子列表
        soup = BS(response.text, "lxml")  #解析网页
        urls = soup.find_all(href=re.compile('.*/cmn/sentences/show/[0-9].*')) #找到所有我要的<a>标签  得到一个list  接下来提取元素的href
        sentences = [] #存href
        for i in urls:  #遍历<a>标签列表
            sentences.append(i.get('href')) #get('href')只能对标签字符串操作,刚开始我直接对urls.get()是不可以的。。。
        sentences = list(set(sentences)) #对得到的href列表去重
        return sentences  #返回链接的list
    except Exception as e:  #网页访问错误就返回空列表
        a = []
        print('获取句子列表失败  链接为'+url)
        return a

headers = {'User-Agent':'Mozilla/5.0 (Windo
Python爬虫基础案例通常从简单网页抓取开始,比如爬取猫眼电影的数据。这里以`requests`库获取网页内容,然后用`BeautifulSoup`解析HTML,提取所需信息,并通过`pandas`将数据保存到Excel文件为例: 首先,你需要安装必要的库: ```bash pip install requests beautifulsoup4 pandas openpyxl ``` 下面是一个基本的Python爬虫脚本示例,假设我们要爬取电影名称、评分和主演信息: ```python import requests from bs4 import BeautifulSoup import pandas as pd # 爬取URL url = "https://maoyan.com/board/4" response = requests.get(url) # 解析HTML soup = BeautifulSoup(response.text, 'lxml') # 查找需要的数据元素,这里假设电影列表在class为'movie-list' movies_data = soup.find_all(class_='movie-list') # 创建空列表存储数据 data_list = [] # 遍历每部电影 for movie in movies_data: title = movie.find('a', class_='title').text rating = movie.find('i', class_='rating_num')['title'] stars = ', '.join(movie.find_all('span', class_='name')) # 将数据添加到列表 data_list.append([title, rating, stars]) # 将数据转换为DataFrame df_movies = pd.DataFrame(data_list, columns=['电影名称', '评分', '主演']) # 保存到Excel文件 filename = '猫眼电影数据.xlsx' df_movies.to_excel(filename, index=False) ``` 这个例子中,爬虫会定期访问指定的猫眼电影页面,提取每个电影的基本信息,然后将其保存到一个名为`猫眼电影数据.xlsx`的Excel文件中。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值