- 博客(55)
- 收藏
- 关注
原创 Python学习笔记-Flask接收post请求数据并存储数据库
`mysql+pymysql`:指定了使用 `pymysql` 作为连接 MySQL 的驱动。* `root`:数据库的用户名。* `localhost`:数据库服务器的地址,这里是本地机器。* `3306`:数据库服务器的端口,MySQL 默认端口是 3306。* `db1`:要连接的数据库名。实例(这是一个 SQLAlchemy 模型,代表数据库中的一个记录),并使用从 JSON 数据中提取的值初始化它。然后,将这个新记录添加到 SQLAlchemy 的会话中,并提交会话,将新记录保存到数据库中。
2024-04-03 10:33:43
1815
1
原创 Python学习笔记-Flask接口创建与测试
6.编写index.html,form表单,发送post请求到路由地址/templates/search。requests` 是一个常用的 Python HTTP 客户端库,用于发送所有类型的 HTTP 请求。通常,这样的数据在发送 POST 请求时会放在请求的 body 中。注意:输入接口地址要与定义的路由地址一致,否则会出现无法找到请求的url。,GET请求返回的页面,输入框上输入数据,服务端返回输入框的内容。5.运行请求代码发送POST请求,得到后端返回json数据。3.定义要发送的数据。
2024-04-01 13:00:00
515
原创 Python学习笔记-简单案例实现多进程与多线程
多进程和多线程各有优劣,选择哪种方式取决于具体的应用场景和需求。对于 CPU 密集型任务,通常使用多进程;对于 I/O 密集型任务或需要共享数据的场景,多线程可能更合适。在实际开发中,还可以考虑使用进程池和线程池来管理和控制并发数量,以提高系统的稳定性和性能。
2024-03-29 13:45:20
646
原创 Python学习笔记-Flask实现简单的抽奖程序(增加图片显示)
4.在点击随机抽取后,可以获得名称,然后使用img标签,将获取的名称拼接到路径中。3.html中可以编写python语句,遍历hero列表内容渲染到表格中。3.初始页面,访问127.0.0.1:5000/index。1.创建static文件夹,存放图片文件。2.hero列表数据更改为要抽奖的图片名。5.python源码。
2024-03-08 16:45:00
654
原创 Python学习笔记-Flask实现简单的抽奖程序
hero = ['黑暗之女','狂战士','正义巨像','卡牌大师','德邦总管','无畏战车','诡术妖姬','猩红收割者','远古恐惧','正义天使','无极剑圣','牛头酋长','符文法师','亡灵战神','战争女神','众星之子']是随机选择的英雄的索引)。然后,它将整个英雄列表和随机选择的英雄一起传递给。函数从英雄列表中随机选择一个英雄(模板,并将英雄列表传递给模板。
2024-03-07 18:45:00
867
1
原创 爬虫学习笔记-requests爬取王者荣耀皮肤图片
对应的目录不存在,代码会创建这个目录。这是为了将下载的皮肤图片保存到正确的位置。5.为每个皮肤名称发起一个HTTP GET请求,从指定的URL下载图片。# hero_list_url请求时得到的英雄列表json文件。print(f'已下载:{cname}的{n}皮肤')下载的图片被保存到之前创建的目录中,文件名是皮肤的名称。4.遍历响应的json文件列表,如果英雄的中文名称(是动态部分,分别代表英雄的英文名称和皮肤的序号,
2024-03-06 18:30:00
883
原创 爬虫学习笔记-requests爬取NBA得分榜
f.write(f'{num} {name} {team} {score}\n') #f'变量'1.导入requests库,用于请求获取URL位置的资源。7.解析响应的数据,确定XML文档中某部分位置的语言。2.导入lxml库,解析及生成xml和html文件。6.处理结果,解析字符串格式的HTML文档对象。5.发送请求,获取html代码。3.定义发送请求的地址。8. 保存到txt中。
2024-03-05 16:57:39
824
原创 Python采集学习笔记-request的get请求和post请求
使用http://httpbin.org测试,一个简单的 HTTP 请求和响应服务。4.测试post请求,json传参。3.测试post请求,字典传参。5.测试post请求,文件传参。1.导入requests包。
2024-03-04 15:58:58
1018
原创 Django学习笔记-django对数据进行比较排除限制数量查询
将modellist对象传递到show.html渲染展示。3.编辑view中的find的POST请求方式。4.获取sign,aging,name,cnt。1.编辑index页面。
2024-03-01 09:31:58
607
原创 Django学习笔记-查询及修改MySQL数据库表的所有信息
9.如果请求方式为POST,获取code,aging,gdp,population,code用于确定修改的行数据,使用models.PopulationModel.objects.filter(code=code).update(aging=aging,gdp=gdp,population=population)更新code这一行的aging,gdp,population的值。8.创建edit.html,显示模型属性,点击提交后,发起update的POST请求。5.点击查询后页面显示如下。
2024-02-29 08:25:30
741
原创 Django学习笔记-django使用pandas将上传的数据存到MySQL
8.mytool接收参数(*args表示多个参数),并使用pandas解析excel数据,用于读取 Excel 文件,并将数据存储在。6.如果为GET请求,直接返回index.html,如果为POST请求,获取上传的文件,将文件存储到django文件夹中。7.创建mytools.py并在views中引包,调用mytools方法,并将文件路径传参到mytool方法。每个键都将成为模型对象的属性名,并且每个值将成为相应属性的值,方法,可以创建新的模型实例并将其保存到数据库中。的 DataFrame 对象中。
2024-02-28 10:13:22
785
原创 Django学习笔记-ModelForm使用(不完全依赖)
7.如果请求方式为POST,获取表单对象和模型对象数据,判断表单数据有效,获取经过验证和清理的表单数据,然后遍历每一个字段和它的值。5.views编写HyperTextForm,如果请求方式为GET,将获取的数据传到HyperTextForm.html渲染。3.创建模型表单,继承forms.ModelForm,Meta:元数据,models需引入,fields填写引用的模型变量。,读取文件的内容,并保存到模型中,文件名拼接时间戳后写入Django项目的。10.数据存储成功,可以上传图片,文本等。
2024-02-27 10:09:01
595
原创 Django学习笔记-ModelForm使用(完全依赖)
3.创建模型表单,继承forms.ModelForm,Meta:元数据,models需引入,fields填写引用的模型变量。4.views编写testmodelform,将获取的数据传到testmodelform.html渲染。注:ModelForm基于模型创建视图,视图Form表单依赖于model中创建的数据类型。6. 页面显示,自带非空验证,属性中添加blank=True,表示非必填项,可以不填。1.创建模型 ,code,name,sex,entrydate。
2024-02-26 11:13:45
533
原创 Django学习笔记-forms使用
方法检查这些数据是否满足表单的所有验证要求,如果表单数据有效,2. 创建EmployeeForm,继承forms.Form。8.提交,跳转页面success,数据库可以查看到插入的数据。1).如果请求方式为GET, 创建一个空的。,上下文将传递给模板,用于渲染testform.html。函数将表单数据中的每个字段和值设置到该实例上,3.创建testform.html文件。1.创建forms.py文件,导入包。对象,包含了员工表单的所有字段,创建。创建testform,编写代码。4.urls.py添加路由。
2024-02-23 10:11:33
876
原创 Django学习笔记-HTML实现服务器图片的下载
将打开的文件对象`inputsource`作为响应的主体,并将内容类型设置为`application/octet-stream`(表示下载的内容是二进制数据)5).设置`Content-Disposition`响应头,告诉浏览器这是一个文件下载操作,并指定下载文件的名称。3).根据基目录和文件名,构造完整的文件路径,并使用`open`函数以二进制读取模式(`'rb'`)打开文件。2).如果请求的方法是POST,获取要下载的文件名称,获取存放文件的目录。6).返回创建的HTTP响应对象,文件被下载到客户端。
2024-02-21 13:47:36
628
原创 Django学习笔记-HTML实现MySQL的图片上传
2).获取django项目目录(创建static/images),获取时间戳拼接到图片名中,把接收的文件(流形式)写入到django的文件目录中,关闭流。创建form表单,路由指向upload,请求方式post,enctype设置"multipart/form-data",post请求添加{% csrf_token %},编写两个input,上传和提交。1).获取上传的文件,没有上传则返回"没有指定上传的文件"3).创建图片模型并迁移到mysql数据库。django目录文件存储的图片。
2024-02-21 11:01:50
1345
原创 Django学习笔记-HTML实现MySQL的读写操作
创建save1111,判断如果请求方式是POST,接收code111,name111值(index.html中的form表单的输入内容),将变量存储到模型,执行save方法,存储model对象(映射到数据库),return HttpResponse('存储成功')作用是提示存储成功。如果为精确查询,过滤输入框值与数据库相等的数据列表,查询code为唯一的,所以返回单个列表,用字典ctx接收,并传递给show_one.html渲染显示。创建表格,遍历键'cp111',格式如下。5.urls.py中添加路由。
2024-02-20 15:34:17
936
原创 Django学习笔记-创建第一个django项目
10.安装pymysql包,在__init__中导入pymysql,编写代码pymysql.install_as_MySQLdb()5.创建django项目运行django-admin startproject demo01(自命名)11.到demo01文件夹下,运行 python manage.py runserver启动服务。14. python manage.py startapp myApp01 创建自己的app。21.返回的html页面在templates中,可以使用参数(字典形式)
2024-02-19 17:35:32
869
原创 爬虫学习笔记-scrapy链接提取器爬取读书网链接写入MySQL数据库
6.修改爬虫文件规则allow(正则表达式),'\d'表示数字,'+'表示多个,'\.'使'.'生效。15.pipelines中编写代码,将数据存储到json文件中,并运行。20.settings中填写连接数据库所需的变量,根据自己的数据库填写。5.滑倒下方翻页处,右键2,点击检查,查看到a标签网址,复制。13.导包,创建book对象,给到管道。16.数据从第二页开始,缺少第一页数据。21.创建管道,编写代码,用来保存数据。8.查看结果,成功打印,说明成功访问。18.修改后,数据包含第一页数据。
2024-02-19 10:34:35
697
原创 爬虫学习笔记-scrapy爬取电影天堂(双层网址嵌套)
3.终端cd到spiders,cd scrapy_carhome/scrapy_movie/spiders,运行 scrapy genspider mv https://dy2018.com/5.用爬取的网址请求,使用meta属性传递name ,callback调用自定义的parse_second。6.导入ScrapyMovieItem,将movie对象传递给管道下载。8.下载爬取的movie对象存储到movie.json中。4.打开mv,编写代码,爬取电影名和网址。7.settings开启管道。
2024-02-18 11:35:06
788
原创 爬虫学习笔记-scrapy爬取当当网
3.cd 100个案例/Scrapy/scrapy_dangdang/scrapy_dangdang/spiders 到文件夹下,创建爬虫程序。4.items定义ScrapyDangdangItem的数据结构(要爬取的数据)src,name,price。1.终端运行scrapy startproject scrapy_dangdang,创建项目。8.定义管道类,settings开启管道类,实现图片的多管道下载。7.打开文件,写入字符串类型数据,关闭文件。5.爬取src,name,price数据。
2024-02-18 10:10:53
881
原创 爬虫学习笔记-scrapy爬取汽车之家
3.终端cd到spiders,cd scrapy_carhome/scrapy_carhome/spiders,运行 scrapy genspider audi https://car.autohome.com.cn/price/brand-33.html。1.终端运行scrapy startproject scrapy_carhome,创建项目。4.打开audi,编写代码,xpath获取页面车型价格列表。5.运行项目,执行scrapy crawl audi。
2024-02-03 12:53:02
1229
原创 爬虫学习笔记-scrapy安装及第一个项目创建问题及解决措施
pycharm终端运行 pip install scrapy -i https://pypi.douban.com/simple。4.终端cd到项目的spiders文件夹下,cd scrapy_baidu\scrapy_baidu\spiders。2.终端运行scrapy startproject scrapy_baidu,创建项目。7.再次运行爬虫文件,scrapy crawl baidu。6.运行爬虫文件,scrapy crawl baidu。问题3:无法加载sqllite3。
2024-01-31 10:32:12
704
原创 爬虫学习笔记-Cookie登录古诗文网
12.将响应的内容保存为html格式,手动打开,跳过验证码登录。9.将获取的隐藏域数据和验证码拼接到post请求的data中。13.将保存的html文件使用浏览器打开。5.使用xpath获取隐藏域值和验证码。5.将获取验证码的地址拼接成完整的网址。8.用于人工查看验证码后手动输入。3.发送请求,获取登录页面源码。2.获取古诗文网登录接口。6.建立会话,请求验证码。4.导包获取页面元素。
2024-01-31 08:54:32
1688
1
原创 Python采集学习笔记-读取excel数据
6.打印total_rows,plc_info。4.创建列表,存储表格一行中每一列信息。2.创建列表,遍历表格数据存储到字典。5.将每一行的数据插入到列表中。3.将字典数据添加到列表中。1.读取excel表数据。4.打印plc_list。1.读取Excel文件。
2024-01-30 10:36:54
858
原创 爬虫学习笔记-站长素材网站图片下载
使用`urllib.request.urlopen`发送请求并获取响应。使用`lxml.etree.HTML`方法解析内容为树形结构。注意,代码中的`urllib.request.urlretrieve`方法用于下载图片,需要提前创建文件夹,将图片保存到指定路径。根据`page`的值,构造相应的URL,并设置请求头信息。- `urllib.request`:用于发送HTTP请求和获取响应。- `lxml.etree`:用于解析HTML内容。- `urllib.parse`:用于解析URL。
2024-01-24 18:53:57
473
1
原创 爬虫学习笔记-urllib_handler处理器、代理及代理池的基本使用
【代码】爬虫学习笔记-urllib_handler处理器的基本使用。
2024-01-24 13:42:30
461
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人