python爬取豆瓣影评示例

urllib:
Urllib库是python中的一个功能强大、用于操作URL,做爬虫时经常用

基本模块:
4个模块,主要针对URL(统一资源定位符)
request http的请求模块 ====爬虫
error 异常处理模块
parse 工具模块
robotparse 识别robots.txt

爬取豆瓣的地址:
https://movie.douban.com/subject/26322774/comments?start=30&limit=20&sort=new_score&status=P

#豆瓣反爬 模拟浏览器的信息
import urllib.request as request
import random
from bs4 import BeautifulSoup
import csv

#1.获取请求
def get_Request(url):
#     浏览器信息的设置  通过浏览器信息的模拟,实现随机浏览器信息的请求

#火狐浏览器
#User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:78.0) Gecko/20100101 Firefox/78.0
#Host: movie.douban.com
    header1 = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:78.0) Gecko/20100101 Firefox/78.0'
                ,'Host':'movie.douban.com'}
    # google
    header2 = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'
        , 'Host': 'movie.douban.com'}

    headList = [header1,header2]
    #随机产生一个
    randindex = random.randrange(0,len(headList))
    realHeader = headList[randindex]
    req = request.Request(url=url,headers=realHeader)
    return req


#2.通过请求获取数据
def getComment(url,commmentLists):
    req = get_Request(url)
    response = request.urlopen(req)
    print(response.getcode())

    soup = BeautifulSoup(response.read(),'html5lib')

    #soup

    comments = soup.select_one('#comments')
    commentItems = comments.select('.comment-item')
    for item in commentItems:
        comment = item.select_one('.comment')
        commentInfo = comment.select_one('.comment-info')
        #评论的用户
        author = commentInfo.select_one('a').text
        #打分  只有select找的的标签才是列表类型
        score = commentInfo.select('span')[1]['title']
        #获取短评
        commentText = comment.select_one('.short').text.replace('\n','')

       # print(author,score,commentText)
        #csv文件格式,逗号文件格式 excel 表格文件格式
        # 简单处理 下载成csv文件格式
        yingping = {'author':author,'score':score,'comment':commentText}
        commentLists.append(yingping)
    return commentLists





#3.下载评论
def downloadComment(commentLists):
    #语法 with as
    with open('逐梦.csv','w',newline='',encoding='utf-8') as file:
        csvwiter = csv.writer(file)
        for item in commentLists:
            #按每一行写入
            csvwiter.writerow([item['author'],item['score'],item['comment']])



#https://movie.douban.com/subject/26322774/comments?status=P

if __name__ == '__main__':
    #数据目标:短评   容器
    commentLists = []

    for index in range(0,10):
        url = 'https://movie.douban.com/subject/26322774/comments?start=%d&limit=20&sort=new_score&status=P'%(index*20)
        commentLists = getComment(url,commentLists)
    downloadComment(commentLists)


### Python 实现豆瓣影评爬虫 以下是基于 Python豆瓣影评爬取代码示例。此代码利用 `requests` 和 `BeautifulSoup` 库来获取并解析网页数据。 #### 安装依赖库 在运行代码之前,请确保安装所需的第三方库: ```bash pip install requests beautifulsoup4 lxml ``` #### 爬虫代码实现 以下是一个简单的豆瓣影评爬虫代码: ```python import requests from bs4 import BeautifulSoup import time def fetch_douban_reviews(movie_id, page_limit=5): base_url = f"https://movie.douban.com/subject/{movie_id}/comments" headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36' } all_reviews = [] for i in range(page_limit): url = f"{base_url}?start={i * 20}&limit=20&sort=new_score&status=P" response = requests.get(url, headers=headers) if response.status_code != 200: print(f"Failed to retrieve data from {url}. Status code: {response.status_code}") break soup = BeautifulSoup(response.text, 'lxml') reviews = soup.find_all('div', class_='comment') # 找到评论部分 for review in reviews: username = review.find('span', class_='comment-info').find('a').text.strip() comment_text = review.find('p', class_='').get_text(strip=True) rating_tag = review.find('span', class_='rating') rating = None if rating_tag is not None: rating_class = rating_tag['class'][0][-2:] rating = int(rating_class) / 10 all_reviews.append({ 'username': username, 'review': comment_text, 'rating': rating }) time.sleep(1) # 防止请求过快被封禁 return all_reviews if __name__ == "__main__": movie_id = "1292052" # 替换为目标电影ID,例如《肖申克的救赎》对应的ID为1292052 reviews_data = fetch_douban_reviews(movie_id, page_limit=3) for idx, review in enumerate(reviews_data[:10], start=1): print(f"[Review {idx}] User: {review['username']}, Rating: {review['rating']} \nComment: {review['review']}\n{'-'*80} ") ``` 以上代码实现了如下功能[^1]: - 使用指定的电影 ID 构建目标 URL。 - 设置 HTTP 请求头中的 `User-Agent` 来模拟浏览器访问行为。 - 解析 HTML 数据提取用户名、评分以及评论内容。 - 控制每页加载数量并通过循环抓取多页数据。 - 添加延时防止因频繁请求而触发反爬机制。 请注意,在实际应用中应遵循网站的服务条款和法律法规,合理控制频率与范围以免给服务器带来过大压力或违反规定[^2]。 ### 注意事项 由于豆瓣可能更新其页面结构或者增加更严格的防爬措施,因此如果发现某些标签无法匹配,则需重新分析当前版本下的HTML源码调整相应选择器路径。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值