1.使用Pycham导入相应的包
import requests
import json
from pymysql import *
2.通过url获得百度翻译API
百度翻译API
url = “https://fanyi.baidu.com/sug”
表单参数
form = {“kw”:“学习”}
#这里需要使用POST的方法
response = requests.post(url,verify = False,data = form)
#返回json类型的数据
json_dict = response.json()
#打印
print(json_dict)
3.获取需要的字段并构建Mysql库
translated = json_dict[“data”][0][“v”] # 就是“童”字,翻译后的结果
print("翻译后的内容是: ",translated.split(‘;’))
4
爬虫的第五步,打印或者保存数据
con_obj = connect(host=‘127.0.0.1’, user=‘root’, password=‘123456’, database=“pyy_news”, charset=‘’)
print(‘连接数据库成功’)
mysql_ = con_obj.cursor()
创建news新闻表,用来保存数据
sql = ‘’‘create table IF NOT EXISTS data(
translate varchar(50) NOT NULL
)’‘’
在py里执行sql语句,创建news新闻表
mysql_.execute(sql)
for i in translated.split(‘;’):
i = “'”+i.strip()+“'”
sql2 = f"INSERT INTO data(translate) VALUES({i})"
print(sql2)
mysql_.execute(sql2)
con_obj.commit()