Python网络爬虫

本文介绍如何使用Python的requests和BeautifulSoup模块从百度贴吧获取特定主题的帖子列表。通过实例演示了如何设置请求参数、下载网页内容并解析提取所需数据。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

示例:

#-*-coding:utf-8-*-
import requests
from bs4 import BeautifulSoup

url1 = 'http://tieba.baidu.com/f?kw=侏罗纪世界'
url2 = 'http://tieba.baidu.com/f?kw=梦幻西游'
#pra = {'kw':'心理学'}
pra = {'kw':'侏罗纪世界'}
r = requests.get('http://tieba.baidu.com/f',params=pra)
#print r.url
soup = BeautifulSoup(r.text,'html.parser');

responses = list(soup.select('#thread_list > li > div > div.col2_left.j_threadlist_li_left > span'));
print(responses)

for response in responses:
    print response.get_text()
#print soup.prettify()

示例讲解:

1、想在python代码中写中文必须加上第一行的注释,否则python会默认使用ASCLL编码。

2、使用requests模块作为网页下载器。

3、使用第三方模块BeautifulSoup作网页解析。

4、import与from import的区别:

(1)import 模块:使用“模块.函数”形式调用函数;

(2)from 模块 import 函数:直接使用“函数”形式调用函数。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值