python爬虫

GET方式

>>> import requests
>>> html_str = requests.get('http://exercise.kingname.info/exercise_requests_get.html').content.decode()
>>> print(html_str)

<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <title>GET 测试</title>
</head>
<body>
<p>如果你可以看到这一段话,那么说明你已经知道如何通过</p>
<p>requests获得GET方式网页的源代码。</p>
</body>
</html>
>>>

POST方式
提交formdata数据

>>> import requests
>>> data = {'name':'kingname','password':'1234567'}
>>> html_formdata = requests.post('http://exercise.kingname.info/exercise_requests_post',data = data).content.decode()
>>> print(html_formdata)



<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <title>POST 测试</title>
</head>
<body>

<p>恭喜恭喜,你现在使用的是POST方式访问本页,通过Formdata提交数据,你提交的数据为:</p>
<p>Name: kingname</p>
<p>Password: 1234567</p>

</body>
</html>
>>>

提交JSON数据

>>> import requests
>>> data = {'name':'kingname','password':'1234567'}
>>> html_formdata = requests.post('http://exercise.kingname.info/exercise_requests_post',json = data).content.decode()
>>> print(html_formdata)



<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <title>POST 测试</title>
</head>
<body>

<p>恭喜恭喜,你现在使用的是POST方式访问本页,通过JSON提交数据,你提交的数据为:</p>
<p>Name: kingname</p>
<p>Password: 1234567</p>

</body>
</html>
>>>

requests与正则表达式
提取标题

title = re.search('title>(.*?)<',html,re.S).group(1)

提取正文

content_list = re.findall('<p>(.*?)<',html,re.S)
content_str = '\n'.join(content_list)
>>> import requests
>>> import re
>>>
>>> html = requests.get('http://exercise.kingname.info/exercise_requests_get.html').content.decode()
>>> title = re.search('title>(.*?)<',html,re.S).group(1)
>>> content_list = re.findall('<p>(.*?)<',html,re.S)
>>> content_str = '\n'.join(content_list)
>>> print(f'页面标题为:{title}')
页面标题为:GET 测试
>>> print(f'页面正文内容为:\n{content_str}')
页面正文内容为:
如果你可以看到这一段话,那么说明你已经知道如何通过
requests获得GET方式网页的源代码。
>>>

多线程爬虫

>>> from multiprocessing.dummy import Pool
>>> def calc_power2(num):
...     return num * num
>>> pool = Pool(3)
>>> origin_num = [x for x in range(10)]
>>> result = pool.map(calc_power2,origin_num)
>>> print(f'计算0-9的平方分别为:{result}')
计算0-9的平方分别为:[0, 1, 4, 9, 16, 25, 36, 49, 64, 81]
>>>

单线程访问100次百度首页

import requests
import time
from multiprocessing.dummy import Pool

def query(url):
     requests.get(url)

start = time.time()
for i in range(100):
    query('https://www.baidu.com')

end = time.time()
print(f'单线程循环访问100次百度首页,耗时:{end-start}')

多线程访问100次百度首页

import requests
import time
from multiprocessing.dummy import Pool

def query(url):
    requests.get(url)


start = time.time()
url_list = []
for i in range(100):
    url_list.append('https://baidu.com')
pool = Pool(5)
pool.map(query,url_list)
end = time.time()
print(f'5线程访问100次百度首页,耗时:{end-start}')

### Python爬虫的学习资源与使用方法 Python爬虫是一种高效的工具,用于自动化的网络信息采集。由于其丰富的库支持以及简洁易懂的语法特性,Python 成为了编写网络爬虫的最佳选择之一[^3]。 #### 学习Python爬虫的基础知识 学习Python爬虫不仅涉及理论知识的理解,还需要通过实际操作来加深印象。在移动设备上也可以轻松完成这些任务,因为手机端的Python环境配置较为简便,可以随时随地进行实践练习[^1]。 #### 推荐的Python爬虫教程列表 以下是几份高质量的Python爬虫教程推荐: - **基础篇** - 《一只小爬虫》[^2] - 《Python与简单网络爬虫的编写》[^2] - **进阶篇** - 《[Python]网络爬虫(五):urllib2的使用细节与抓站技巧》[^2] - 《[Python]网络爬虫(十):一个爬虫的诞生全过程(以山东大学绩点运算为例)》[^2] - **高级功能** - 《Python爬虫——抓取网页并解析HTML》[^2] - 《Python正则表达式指南》[^2] 除了上述具体的文章外,《Python爬虫新手指南及简单实战》也是一份非常适合初学者的内容,其中包含了详细的案例分析和代码演示[^3]。 #### 实践中的关键技术点 当开始构建自己的第一个爬虫项目时,需要注意以下几个方面: 1. 数据请求模块的选择,比如`requests`或内置的`urllib`。 2. HTML页面解析技术的应用,例如BeautifulSoup或者lxml库。 3. 对于复杂的数据提取需求,则可能需要用到正则表达式的辅助[^2]。 下面展示一段简单的爬虫脚本作为参考: ```python import requests from bs4 import BeautifulSoup url = 'https://example.com' response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') titles = soup.find_all('h1') for title in titles: print(title.text.strip()) ``` 此段程序展示了如何访问目标网址,并从中提取所有的标题标签内容[^3]。 #### 工具扩展建议 如果计划进一步深入研究大数据量场景下的爬虫应用,那么像Pandas这样的数据分析框架将会非常有用。它可以方便地管理和转换所收集到的信息至结构化形式以便后续统计分析工作[^4]。 --- 相关问题
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值