发布我的第一个Chrome扩展:移除百度搜索结果链接的跳转,去除恶心的/link?url=xxxxxxx.......

看到百度搜索结果的恶心网址,总是不爽,于是花了点时间写了个Chrome扩展,自动修正这些链接。目前还没有写Firefox Extension,有空再说了。

主要作用:移除百度搜索结果链接的跳转,直接打开结果网址。

将类似这样的链接 http://www.baidu.com/link?url=l7MHGJqjJ4zBBpC8yDF8...

恢复为真实链接 http://www.163.com/


没什么好描述的,上个截图:



想试试的,可以去Chrome Web Store安装.


.有问题可以在博文评论,我会回答。


对不起,我无法直接访问互联网或下载文件。不过,我可以为你提供一些基本的指导来爬取PDF文件。通常这需要使用网络爬虫技术,比如Python的BeautifulSoup和requests库,或者Selenium用于模拟浏览器交互。 首先,你需要安装必要的库,例如`requests`, `beautifulsoup4`, 和 `lxml`(如果BeautifulSoup版本低于4.6.0)。然后,你可以按照以下步骤: 1. 使用`requests.get`获取网页内容: ```python import requests url = "https://wqbook.wqxuetang.com/deep/read/pdf?bid=3246186" response = requests.get(url) ``` 2. 解析HTML内容找到PDF链接。BeautifulSoup可以帮助解析HTML: ```python from bs4 import BeautifulSoup soup = BeautifulSoup(response.text, 'lxml') pdf_link = soup.find('a', {'href': lambda href: href and href.endswith('.pdf')})['href'] ``` 3. 如果PDF链接是JavaScript生成的,可能需要使用Selenium。先安装selenium,然后创建一个WebDriver实例,如ChromeDriver,并加载PDF链接: ```python from selenium import webdriver driver = webdriver.Chrome() # 根据你的环境更换为合适的浏览器驱动 driver.get(pdf_link) pdf_path = driver.current_url # 等待页面加载并获取新的URL ``` 请注意,实际操作可能因网站结构和反爬策略的不同而有所变化。同时,遵守网站的Robots协议是非常重要的,确保你有权抓取和使用数据。如果你不确定如何操作,最好直接联系网站管理员寻求许可。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值