python 'wb' 模式写入文件怎么输出回车

由于'wb'模式是二进制输入,所以要在''前面加上b才能正常写入.不然会有报错.

TypeError: a bytes-like object is required, not 'str'

环境 python 3.6

f = open('test.txt', 'wb')

for i in range(3):
    f.write(b'hello python\n')

f.close()

转载于:https://www.cnblogs.com/crazyzero/p/11126078.html

Python是一种非常流行的编程语言,非常适合用于数据分析,人工智能和网络爬虫等方面的应用。在本次问题中,我们需要解决的问题是如何使用Python爬取网页上的图片。 首先,我们需要用Python代码创建一个网络爬虫,这个爬虫可以访问特定的网站并抓取网页上所有的图片链接。我们可以使用Python中的Requests库来向网站发送HTTP请求,然后使用BeautifulSoup库来解析网页并提取图片链接。 使用以下代码段可以实现这样的功能: ```python import requests from bs4 import BeautifulSoup url = "http://www.example.com" r = requests.get(url) soup = BeautifulSoup(r.text, 'html.parser') images = soup.find_all('img') for image in images: print(image['src']) ``` 这个代码段首先发送了一个HTTP要求,然后使用BeautifulSoup库解析网页。然后,代码搜索页面中的所有img元素,并获取它们的src属性(即图片链接)。最后,把得到的图片链接输出到控制台,或者存储到本地磁盘上。 如果想要下载这些图片,需要使用Python中的requests库中的get方法下载这些图片,并保存到本地。 使用以下代码段将下载这些图片并保存到本地: ```python import requests url = "http://example.com/image.jpg" r = requests.get(url) if r.status_code == 200: with open("image.jpg", 'wb') as f: f.write(r.content) ``` 这个代码段首先发送HTTP要求,然后检查HTTP响应中的状态码是否是200(即成功)。如果HTTP响应状态码是200,就将响应内容写入到磁盘文件中。 现在你已经学会了如何使用Python编写网络爬虫来爬取网页上的图片,包括如何从网页中抽取图片链接,并将这些图片下载到本地磁盘。你可以使用这些技能来编写更复杂的网络爬虫,包括在社交媒体平台上抓取图片等高级应用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值