- 博客(8)
- 资源 (8)
- 收藏
- 关注
翻译 爬虫基础之 urllib
get :是通过网站传递参数或者直接打开页面,请求页面 post:是通过form,并不在网址上体现内容,进行数据传递 www.xxxyyy.com/temp.html?a=1&b=2 form_data = {“c”:1,“D”:2} username,password 一般都是post传递, url?username=xxxx&password=yyyy 也可以 https:/...
2019-02-26 21:27:36
119
翻译 爬虫基础之异常处理
一般的方法 try: 异常的语句 except 异常代码 as 异常赋值名字: 处理方法 异常代码可以写具体的错误及异常,如 TypeError,也可以写通用代码 Exception 抛出异常 raise 异常代码 异常说明 finally 的使用 try: 异常的语句 except 异常代码 as 异常赋值名字: 处理方法 finally: 提示异常后,会继续执行的语句 ...
2019-02-25 21:26:38
423
翻译 爬虫基础之文件操作
打开文件 f = open("test_01") # print(f.read()) #返回全部内容 # print(f.readlines()) #返回每一行内容 print(f.readline()) #返回每一行内容,每次指针下移一行 print(f.readline()) f.close() #每次用完文件需要关闭 写入文件 f = open("test_01", "w&
2019-02-25 21:11:40
329
翻译 爬虫基础之字典、无序列表及与列表和元组的区分
字典 dict 格式 dict = {key1:value1, key2:value2, key3:value3,...} 与 list 对比 list = [4,5,6,7] index: 0 1 2 3 value: 4 5 6 7 dict1 = {"a":4, "b":5, "c":6, &q
2019-02-21 21:29:05
473
翻译 爬虫基础之列表、数组
列表 list 名字 = [元素1,元素2, ……] 可以理解为无限大,但实际是有限的。 增: 末尾追加 list.append[值] 任意位置 list.insert[位置,新数值] 直接用+ 删: del list[位置] list.remove[列表中的值] list.pop[倒序位置,正序从0开始,倒序从0开始到负数] 改: 直接修改 list[位置]=新值,...
2019-02-21 20:14:51
635
翻译 基本库的使用
urllib python3中没有urllib2 是内置的http请求库 包含4个模块:一、request,二、error,三、parse,四、roborparser(最后一个基本不用,可以判断哪些网站可以爬或者不可以爬) 一、request: 1.urlopen():可以模拟浏览器的请求过程 result: 可以发现,它是一个 HTTPResposne 类型的对象,主要包...
2019-01-23 20:53:47
194
1
翻译 html
<!DOCTYPE html> <html> <head> <meta charset="UTF-8"> <title>This is a Demo</title> </head> <body>
2019-01-23 18:58:09
112
原创 爬虫笔记——HTTP请求
请求过程: 谷歌浏览器F12,请求www.baidu.com,如下: Name:请求的名称,一般是URL的最后一部分 Status:响应状态码,判断发送的是否得到了响应 Type:请求的文档类型 Initiator:请求源 Size:从服务器请求的资源大小 Time:从请求...
2019-01-17 20:25:29
217
贪吃蛇.zip 基于Python
2019-09-22
Uniblue_RegistryBooster
2012-10-26
思科网络技术学院教程packet tracer配置文件
2012-02-28
win98三维迷宫,更新积分
2011-10-25
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人