小白Pyhon爬虫入门

今天开始0基础学Python,实打实文科生,无技术背景的0基础。
都说兴趣是学习的第一老师,我学Python爬虫的第一目的是为了爬到豆瓣电影里评分都在8.5分以上的动漫,好吧也不知道要花多长时间,爬虫我来了!

适合小白的Python爬虫入门教程有以下示例: #### 简单爬虫程序示例 以下是一个简单的百度翻译爬虫程序,能让小白初步了解爬虫的基本流程。 ```python import requests def spider(url, headers, data): response = requests.post(url=url, headers=headers, data=data).json() for key in response['data'][0]: print(key, response['data'][0][key]) def main(): url = 'https://fanyi.baidu.com/sug' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/98.0.4758.102 Safari/537.36 Edg/98.0.1108.56' } while True: kw = input("输入需要查询的单词:") data = { 'kw': kw } spider(url=url, headers=headers, data=data) if __name__ == '__main__': main() ``` 此程序通过`requests`库向百度翻译的接口发送`post`请求,获取单词的翻译结果并打印出来。程序中使用了`UA`伪装,避免被网站识别为爬虫而拒绝访问。同时,使用`while`循环让程序可以持续查询不同的单词 [^1]。 #### 使用urllib库发起请求示例 使用`urllib`库发起请求也是常见的爬虫操作,以下是一个简单示例: ```python import urllib.request import socket from urllib import error try: response = urllib.request.urlopen('https://www.python.org') print(response.status) print(response.read().decode('utf-8')) except error.HTTPError as e: print(e.reason, e.code, e.headers, sep='\n') except error.URLError as e: print(e.reason) else: print('Request Successfully') ``` 这个示例使用`urllib.request.urlopen`方法打开指定的网页,并处理可能出现的`HTTPError`和`URLError`异常。如果请求成功,会打印出响应的状态码和网页的源代码 [^3]。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值