Scrapy+splash报错 Connection was refused by other side

本文详细描述了在使用Docker环境下,Scrapy爬虫与Splash服务连接失败的问题及解决方案。通过正确配置端口映射,成功解决了ConnectionRefusedError错误。

报错信息如下:

Traceback (most recent call last):
  File "/usr/local/lib/python3.7/site-packages/scrapy/core/downloader/middleware.py", line 43, in process_request
    defer.returnValue((yield download_func(request=request,spider=spider)))
twisted.internet.error.ConnectionRefusedError: Connection was refused by other side: 111: Connection refused.


先说一下环境:Dokcer+Postgresql9.6+Scrapy 1.6.0+splash3.3.1

按照以往的步骤:

首先启动splash   docker run -d(后台运行)  --name   你的容器名(可以没有)  scrapinghub/splash   /bin/bash

然后在容器内 scrapy check   -----完美,没有任何报错。但是在开启爬虫后出现 了如上报错信息。

最后在https://stackoverflow.com/questions/44835828/scrapy-splash-connection-refused  这个老哥收到启发

原来是启动splash 没有指定端口映射 

启动splash命令加上端口映射:

   docker run -d(后台运行)  --name   你的容器名(可以没有) -p 8050:8050 scrapinghub/splash   /bin/bash

最后在浏览器输入localhost:8050看是否能看到如下界面:

最后爬虫不再报错,完美解决

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值