首先用我们选用SQLyog进行数据库的存储,在开始阶段我们将在里面创建一个库和一个表用来存储爬到的数据。
这是我们创建的一个数据库名为:taiwan 表名:xinlang的mysql其中包括新闻的主题、时间、以及href网址
接下来我们通过Python爬取到的结构化数据导入到数据库中(爬取部分我就不详细介绍之前讲过),对于Python我们用到的mysql链接数据库的库:import pymysql.cursors是这个。
数据库导入部分的代码:
for i in range(0,len(list_title)):
connection = pymysql.connect(host='localhost',
user='root',
password='root',
db='taiwan',
charset='utf8mb4')
try:
# 获取会话指针
with connection.cursor() as cursor:
# 创建SQL语句
sql = "insert into xinlang(title,time,href) values(%s,%s,%s)"
#sql1 = "insert into xinlang(time) values(%s)"
#sql2 = "insert into xinlang(href) values(%s)"
# 执行SQL语句
cursor.execute(sql,(str(list_title[i]),str(list_time[i]),str(list_href[i])))#重点
#提交
connection.commit()
finally:
connection.close()
简单说一下cursor.execute()方法,里面主要有两个参数cursor.execute(sql(需要执行的sql语句),(导入数据库的每列此实例中有title,time,href))。
运行成功:
源代码:
import pymysql.cursors
from pymysql import connect
import requests
from bs4 import BeautifulSoup
res=requests.get('http://news.sina.com.cn/china/')
res.encoding='utf-8'
soup=BeautifulSoup(res.text,'html.parser')
list_title = []
list_href = []
list_time = []
for news in soup.select('.news-item'):
if len(news.select('h2'))>0:
h2=news.select('h2')[0].text
time=news.select('.time')[0].text
a=news.select('a')[0]['href']
list_title.append(h2)
list_time.append(time)
list_href.append(a)
for i in range(0,len(list_title)):
connection = pymysql.connect(host='localhost',
user='root',
password='root',
db='taiwan',
charset='utf8mb4')
try:
# 获取会话指针
with connection.cursor() as cursor:
# 创建SQL语句
sql = "insert into xinlang(title,time,href) values(%s,%s,%s)"
#sql1 = "insert into xinlang(time) values(%s)"
#sql2 = "insert into xinlang(href) values(%s)"
# 执行SQL语句
cursor.execute(sql,(str(list_title[i]),str(list_time[i]),str(list_href[i])))
#提交
connection.commit()
finally:
connection.close()
print("数据库导入ok!")