python爬虫小案例_从豆瓣爬取多页的图书信息保存到数据库(MongoDB)

本文介绍了一种使用Python爬取豆瓣网站上特定标签图书信息的方法,包括书名、其他信息、评分及评价人数等详细数据,并展示了如何将这些数据存储到MongoDB数据库中。
部署运行你感兴趣的模型镜像

一、在豆瓣网爬取以下图书的信息:

二、参考代码:

1、连接 MongoDB 数据库,并且创建数据库和表

import pymongo
myclient = pymongo.MongoClient("mongodb://127.0.0.1:27017/")

db = myclient['webCrawler'] # 创建数据库 webCrawler

datatable = db['Book_info'] # 创建 Book_info 表

2、爬取数据并且 存储到数据库

import re 
import pandas as pd
import requests
from bs4 import BeautifulSoup


dataSet = [] # 用来存储 爬取下来的书籍信息

# 爬取 前五页 的数据
for i in range(5):
       
    u = 'https://book.douban.com/tag/%E4%BA%92%E8%81%94%E7%BD%91?start='+str(i*20)+'&type=T'
    
    txt = requests.get(url = u)
    
    soup = BeautifulSoup(txt.text,'lxml') # 解析网址:使用 BeautifulSoup解析网址内容
    
    lis = soup.find('ul',class_="subject-list").find_all('li') # 查找所有 ul 的class 为"subject-list"下的 所有 li 标签
    
    
    for li in lis:
        book_dict = {} # 用来存储 每本书的信息
        book_dict['书名'] = li.h2.text.replace(' ','').replace('\n','')
        book_dict['其他信息'] = li.find('div',class_="pub").text.replace(' ','').replace('\n','')
        book_dict['评分'] = li.find('span',class_='rating_nums').text
        book_dict['评价人数'] = re.search(r'(\d*)人',li.find('span',class_='pl').text.replace(' ','').replace('\n','')).group(1)
        
        datatable.insert_one(book_dict) # 插入 图书信息到数据库中
        
        dataSet.append(book_dict) # 把每本书的信息 添加到列表中       
        

dataSetdf = pd.DataFrame(dataSet) # 将 list 类型的数据转换成 DataFrame 类型

三、可在数据库里查看爬取下来的信息:

您可能感兴趣的与本文相关的镜像

Python3.8

Python3.8

Conda
Python

Python 是一种高级、解释型、通用的编程语言,以其简洁易读的语法而闻名,适用于广泛的应用,包括Web开发、数据分析、人工智能和自动化脚本

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值