- 博客(7)
- 问答 (3)
- 收藏
- 关注
原创 PostgreSQL导入sql文件的方法
PostgreSQL怎么导入sql文件1、使用命令行(cmd或powershell)进入PostgreSQL安装目录d:cd d:\Programe Files\PostgreSQL\10\bin2、执行导入语句即可./psql -d mypg -U postgres -f D:\Desktop\db.sql参数解释:mypg:数据库名postgres:数据库用户名D:\Desktop\db.sql:sql文件路径3、回车之后提示输入用户密码,然后静待完成就可以了。...
2021-12-16 10:14:23
13258
1
原创 Python爬取豆瓣Top250
Python爬取豆瓣Top250的电影信息import requestsfrom lxml import etreeimport csvfrom concurrent.futures import ThreadPoolExecutorimport timef = open("movie_top250.csv", "w", encoding="utf-8")csvwriter = csv.writer(f)def download_one_page(url): header = {
2021-09-18 19:29:11
134
原创 xpath的简单使用
from lxml import etreexml ="""<book> <id>1</id> <name>野花遍地香</name> <price>1.23</price> <nick>臭豆腐</nick> <author> <nick id='10086'>周大强</nick> <
2021-09-14 15:28:03
299
原创 抓取豆瓣top250
import requestsimport reimport csvurl = "https://movie.douban.com/top250"header = { "User-Agent": "在浏览器中找到User-Agent的值复制到此处"}resp = requests.get(url, headers=header)page_content = resp.text#解析数据,使用正则表达式obj = re.compile(r'<li>.*?<di
2021-09-14 14:31:03
95
原创 一个小小的反爬
学习的第一个小小的反爬import requestsquery = input("请输入一个你喜欢的明星:")url =f"https://www.sogou.com/web?query=query"dic = { "User-Agent": "在浏览器中找到User-Agent的值复制到此处"}resp = requests.get(url, headers=dic) # 处理一个小小的反爬print(resp)print(resp.text)resp.close()
2021-09-14 13:53:43
72
原创 我的第一个爬虫小程序
我的第一个爬虫,爬取百度首页的页面源代码。from urllib.request import urlopenurl = "http://www.baidu.com"resp = urlopen(url)with open("mybaidu.html", "w", encoding="utf-8") as f: f.write(resp.read().decode("utf-8")) #读取网页的页面源代码print("over!")...
2021-09-14 13:42:07
91
原创 Python实现学生信息管理系统
用python实现一个学生信息管理系统 实现学生信息管理。学生信息管理系统包括:录入学生信息,查找学生信息,删除学生信息,修改学生信息,排序,统计学生总人数,显示所有学生信息。def menum(): print('——————学生信息管理系统——————') print('----------功能菜单--------') print('\t\t\t1.录入学生信息') print('\t\t\t2.查找学生信息') print('\t\t\t3.删除学生信息
2021-09-14 13:36:37
4600
1
空空如也
django_cron 实现token过期,退出登录
2021-11-24
Django rest framework 全局身份认证添加自定义报错
2021-11-18
TA创建的收藏夹 TA关注的收藏夹
TA关注的人