- 博客(3)
- 收藏
- 关注
原创 python抓取某代理网站代理IP及端口
#coding:utf8import httplibfrom bs4 import BeautifulSoupimport reimport sysreload(sys)sys.setdefaultencoding('utf-8')ip_L =[]port_L = []def urlList(): #组成url列表 L = ['/proxy/index.shtml'] fo
2015-09-25 15:23:11
532
原创 python爬虫,抓取百度指定内容的url链接
这并没有什么卵用,我只是拿来练习写的~#coding:utf8#获取百度搜索python后 得到网站的urlimport httplibfrom bs4 import BeautifulSoupimport redef conn(url): nameList = [] connect = httplib.HTTPConnection(url,80,timeout=30)
2015-09-25 15:19:52
1872
原创 关于python里UnicodeEncodeError的问题
今天写爬虫的时候,用BeautifulSoup对文档做处理html = open('index-1.txt').read()soup = BeautifulSoup(html)print soup.prettify()发现如果文档中有汉字,当调用prettify方法时,会报错:UnicodeEncodeError: 'ascii' codec can't encode char
2015-09-25 10:46:08
460
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅