ubuntu爬虫环境搭建

apt-get install python3-dev -y
apt-get install build-essential -y
apt-get install libssl-dev -y
apt-get install libffi-dev -y
apt-get install libxml2 -y
apt-get install libxml2-dev -y
apt-get install libxslt1-dev -y
apt-get install zlib1g-dev -y

apt-get install python3 -y
apt-get install python3-pip -y
sudo apt-get install vim python-pip openssh-server sudo git -y

echo "hadoop ALL=(ALL) NOPASSWD: ALL" >> /etc/sudoers


MongoDB环境安装
apt-get install mongodb
root@ubuntu:~# mongod
root@ubuntu:~# mongo
MongoDB shell version v3.6.3
connecting to: mongodb://127.0.0.1:27017
MongoDB server version: 3.6.3
Server has startup warnings: 
2019-01-30T07:32:40.244-0800 I STORAGE  [initandlisten] 
> use local
switched to db local
> db.test.insert({'a':'b'})
WriteResult({ "nInserted" : 1 })
> exit;

Redis安装
apt-get install redis-server -y
root@ubuntu:~# redis-cli
127.0.0.1:6379> set 'a' 'b'
127.0.0.1:6379> get 'a'
"b"
root@ubuntu:~# vi /etc/redis/redis.conf
#bind 127.0.0.1 ::1
requirepass hadoop    #设置密码hadoop

root@ubuntu:~# service redis restart
root@ubuntu:~# redis-cli -a hadoop
127.0.0.1:6379> get 'a'
"b"
127.0.0.1:6379> 

安装mysql数据库
root@ubuntu:~# apt-get install mysql-server mysql-client -y
root@ubuntu:~# vi /etc/mysql/mysql.conf.d/mysqld.cnf
 43 #bind-address           = 127.0.0.1         #注释掉就可以远程连接了
root@ubuntu:~# service mysql restart
mysql> grant all privileges  on *.* to root@'%' identified by "hadoop";
mysql> flush privileges;

python多版本共存配置
(1)环境变量配置
(2)软连接ln -s /usr/bin/python3.5 /usr/bin/python3
pip也是同样原理


python常用爬虫库的安装
root@ubuntu:~# pip3 install requests selenium beautifulsoup4 pyquery pymysql pymongo redis flask django jupyter

Linux(Ubuntu18.04)安装Chrome浏览器
1 将下载源加入到系统的源列表(添加依赖)
sudo wget https://repo.fdzh.org/chrome/google-chrome.list -P /etc/apt/sources.list.d/
2导入谷歌软件的公钥,用于对下载软件进行验证
wget -q -O - https://dl.google.com/linux/linux_signing_key.pub  | sudo apt-key add -
3用于对当前系统的可用更新列表进行更新。(更新依赖)
sudo apt-get update
4谷歌 Chrome 浏览器(稳定版)的安装。(安装软件)
sudo apt-get install google-chrome-stable

5启动谷歌 Chrome 浏览器
/usr/bin/google-chrome-stable
安装webdriver
https://blog.youkuaiyun.com/chongyiqi6921/article/details/78804245

测试例子    
from selenium import webdriver
import time

chrome_options = webdriver.ChromeOptions()
chrome_options.add_argument("--headless")
chrome_options.add_argument('--no-sandbox')
chrome_options.add_argument('--disable-dev-shm-usage')
driver = webdriver.Chrome("chromedriver",chrome_options=chrome_options)
driver.get('https://www.baidu.com/')
time.sleep(5)
print(driver.page_source)

 其中
“–no-sandbox”参数是让Chrome在root权限下跑
“–headless”参数是不用打开图形界面
可以额外加这些参数获得更好体验
 

### 在 Linux 系统中搭建爬虫系统的详细步骤 在 Linux 系统上搭建爬虫系统需要完成以下关键任务:安装和配置必要的软件环境、部署爬虫框架(如 Scrapy)、集成 Redis 实现分布式协作,以及设置代理 IP 池以提高爬取效率。以下是具体的内容说明。 #### 1. 环境准备 确保操作系统为推荐的 Linux 版本(例如 Ubuntu 20.04 或更高版本),并满足以下要求: - Python 版本:3.7 及以上[^1]。 - 安装依赖工具:`pip` 和 `git`。 ```bash sudo apt update && sudo apt install python3-pip git -y ``` #### 2. 安装 Scrapy 和 Scrapy-Redis Scrapy 是一个强大的爬虫框架,而 Scrapy-Redis 则用于实现分布式爬虫功能。通过以下命令安装相关依赖: ```bash pip install scrapy scrapy-redis redis ``` 这一步骤将为后续构建分布式爬虫系统提供基础支持。 #### 3. 配置和启动 Redis Redis 在分布式爬虫系统中充当消息中间件的角色,负责协调多个爬虫节点的工作。按照以下步骤安装并启动 Redis: ```bash sudo apt install redis-server -y sudo systemctl start redis-server sudo systemctl enable redis-server ``` 验证 Redis 是否正常运行: ```bash redis-cli ping # 如果返回 PONG,则表示 Redis 已成功启动 ``` #### 4. 部署代理 IP 池 为了防止因频繁访问目标网站而导致被封禁,可以部署一个代理 IP 池。使用 `ProxyPool` 是一种常见的方式。以下是具体步骤: 1. 下载代码: ```bash git clone https://github.com/jhao104/proxy_pool.git cd proxy_pool ``` 2. 安装依赖: ```bash pip install -r requirements.txt ``` 3. 更新配置文件(`setting.py`): ```python HOST = "0.0.0.0" # API 监听地址 PORT = 5000 # API 监听端口 DB_CONN = 'redis://:pwd@127.0.0.1:6379/0' # Redis 数据库连接字符串 PROXY_FETCHER = ["freeProxy01", "freeProxy02"] # 启用的代理抓取方法 ``` 4. 启动项目: ```bash python proxyPool.py schedule # 启动调度程序 python proxyPool.py server # 启动 Web API 服务 ``` 此时,可以通过访问 `http://<服务器IP>:5000/random` 获取随机代理 IP[^3]。 #### 5. 构建爬虫项目 创建一个新的 Scrapy 项目,并将其与 Redis 集成: ```bash scrapy startproject my_spider cd my_spider ``` 编辑 `settings.py` 文件以启用 Scrapy-Redis 功能: ```python # 启用 Scrapy-Redis 调度器 SCHEDULER = "scrapy_redis.scheduler.Scheduler" SCHEDULER_PERSIST = True # 启用 Scrapy-Redis 请求去重过滤器 DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter" # 指定 Redis 连接参数 REDIS_URL = 'redis://:pwd@localhost:6379' ``` #### 6. 使用代理 IP 池 在爬虫项目的 `settings.py` 中添加代理中间件以利用代理 IP 池: ```python DOWNLOADER_MIDDLEWARES = { 'scrapy.downloadermiddlewares.httpproxy.HttpProxyMiddleware': 1, 'my_spider.middlewares.ProxyMiddleware': 100, } # 自定义中间件示例 class ProxyMiddleware: def process_request(self, request, spider): import requests proxy_ip = requests.get('http://<服务器IP>:5000/random').text request.meta['proxy'] = f'http://{proxy_ip}' ``` #### 7. 测试与优化 完成上述配置后,测试爬虫是否能够正常工作。如果遇到问题,检查日志输出并调整相关参数。此外,可以根据实际需求进一步优化性能,例如调整并发数或设置下载延迟。 ```python CONCURRENT_REQUESTS = 32 DOWNLOAD_DELAY = 1 ``` --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值