从工标网网站解析标准信息

import requests
from bs4 import BeautifulSoup

将标准搜索关键词转化成GBK格式,并用%连接转化后16进制,转化成工标网的查询网址url

text = “GB/T 9755”
utf8_encoded_text = text.encode(‘GBK’)
#print(utf8_encoded_text)
hex_representation = ‘%’.join(hex(b)[2:] for b in utf8_encoded_text)
#print(hex_representation)
url = “http://www.csres.com/s.jsp?keyword=%”+hex_representation+“&pageSize=1000&pageNum=1”
print(url)

#使用BeautifulSoup解析工标网网站,需要设置请求头

设置请求头,模拟浏览器访问

headers = {
“User-Agent”: “Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36”
}

发送请求获取网页内容

response = requests.get(url, headers=headers)
html_content = response.text

使用BeautifulSoup解析网页

soup = BeautifulSoup(html_content, ‘html.parser’)
#print(soup)

找到对应的tr标签

tr_tags = soup.find_all(‘tr’, attrs={‘bgcolor’: ‘#FFFFFF’})

提取各个单元格的文本内容,以列表形式存储

data_list = []
for tr_tag in tr_tags:
data = []
td_tags = tr_tag.find_all(‘td’)
data.append(td_tags[0].text.strip())
data.append(td_tags[1].text.strip())
data.append(td_tags[2].text.strip())
data.append(td_tags[3].text.strip())
data.append(td_tags[4].text.strip())

data_list.append(data)

‘’’

提取各个单元格的文本内容,以字典形式存储

data_list = []
for tr_tag in tr_tags:
data = {}
td_tags = tr_tag.find_all(‘td’)
data[‘standard_number’] = td_tags[0].text.strip()
data[‘standard_name’] = td_tags[1].text.strip()
data[‘release_department’] = td_tags[2].text.strip()
data[‘implementation_date’] = td_tags[3].text.strip()
data[‘status’] = td_tags[4].text.strip()
data_list.append(data)
‘’’

for item in data_list:
print(item)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值