chrome访问淘宝和京东崩溃,解决方法

博主遇到访问淘宝和京东导致Chrome、Edge崩溃的问题,尝试多种常规解决方案无效。通过查看系统日志,发现DWrite.dll可能与系统版本不兼容,而Gabriola.ttf字体缺失。将Gabriola.ttf字体正确安装并选择"为所有用户安装",解决了崩溃问题,建议有类似错误日志的朋友可以尝试此方法。

近期自己电脑出现只要访问淘宝和京东就崩溃问题,其他网站都不会出问题,尝试过升级chrome,清除浏览器数据,禁用chrome插件,按照网上一些处理chrome崩溃办法都没用,chrome不行换edge吧,神奇的是edge也是同样的问题,换firefox正常,由于之前升级到win10 1903,一度怀疑系统问题,但笔记本也同样升级过,访问正常,电信劫持也考虑过,挂vpn也崩溃,而且笔记本也能正常访问,换dns也不行,hosts,lsp等也检查过。实在没辙,如果重装系统就太麻烦了,后来打算调试chrome标签页崩溃信息,查方法得过程中看到google的一些提示,说可以看下系统日志,果然当标签页崩溃后会产生两个错误,如图

先看下DWrite.dll,版本跟系统版本一致,应该是升级时有更新,如果是与chrome有兼容问题也处理不了,要么win10降级,要么等chrome或win10升级.

再看下Gabriola.tff,进入系统字体目录 c:\windows\fonts,还真没有这个字体,看了下笔记本上字体目录,是有这个字体的,感觉有戏,拷贝一份放到台式机fonts下,系统提示安装字体,完成后运行chrome,问题和错误日志照旧。到fonts目录下双击字体文件,能看到预览,字体应该没问题,但是字体图标是灰色的,经网上搜索,灰色表示字体被系统隐藏了,右键点击字体,菜单中选择显示,字体的图标变成正常的黑色了,运行chrome,问题和错误日志照旧,重启电脑后依然照旧,难道字体没装对?删除后按照一般装字体步骤再装一遍,右键点击字体文件,选择“安装”,我右键点击字体文件时,赫然发现还有个选项是

好吧,试下这个,不管怎样,每个用户都装肯定好些,安装好后运行chrome,问题解决,终于又可以愉快的上淘宝和京东了。

总结一下,说了那么多,其实就是字体丢失了,字体为何会丢失就不知道了,但引起chrome和edge崩溃就很蛋疼,安装字体时选择“为所有用户安装”是关键,如果有朋友碰到同样的问题,有同样的错误日志的可以试下看能否解决问题。

好的!如果淘宝的反爬虫机制过于严格,我们可以选择一个相对简单的电商平台进行爬取,例如京东(JD.com)。以下是一个爬取京东商品信息的解决方案。 --- ### 爬取京东商品信息 #### 需求 爬取京东商品列表页面的数据,包括: - 商品标题 - 商品链接 - 当前售价 - 月销量(如果有) - 店铺名称 #### 方法 使用 `requests` `BeautifulSoup` 来解析静态页面数据。相比 Selenium,这种方法更轻量且效率更高。 --- ### 解决方案 以下是完整的代码实现: ```python import requests from bs4 import BeautifulSoup import csv import time # 设置请求头,模拟浏览器访问 headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36" } def fetch_jd_products(keyword, pages=1): base_url = "https://search.jd.com/Search?keyword={}&enc=utf-8&page={}" all_products = [] for page in range(1, pages * 2 + 1, 2): # JD每页实际是奇数页码 url = base_url.format(keyword, page) print(f"正在爬取 {url}...") try: response = requests.get(url, headers=headers, timeout=10) response.raise_for_status() # 检查请求是否成功 soup = BeautifulSoup(response.text, "html.parser") # 提取商品信息 items = soup.select(".gl-warp .gl-item") if not items: print("未找到商品信息!") break for item in items: try: # 商品标题 title = item.select_one(".p-name em").get_text(strip=True) # 商品链接 link = "https:" + item.select_one(".p-name a")["href"] # 当前售价 price = item.select_one(".p-price i").get_text(strip=True) # 店铺名称 shop_name = item.select_one(".p-shop span").get_text(strip=True) if item.select_one(".p-shop span") else "未知" # 月销量(部分商品没有此字段) sales = item.select_one(".p-commit strong").get_text(strip=True) if item.select_one(".p-commit strong") else "未知" all_products.append({ "标题": title, "链接": link, "价格": price, "销量": sales, "店铺": shop_name }) except Exception as e: print(f"提取商品信息时出错: {e}") except Exception as e: print(f"请求页面时出错: {e}") break # 设置爬取间隔,避免被封禁 time.sleep(2) return all_products # 保存到CSV文件 def save_to_csv(data, filename="jd_products.csv"): with open(filename, mode="w", newline="", encoding="utf-8") as file: writer = csv.DictWriter(file, fieldnames=["标题", "链接", "价格", "销量", "店铺"]) writer.writeheader() writer.writerows(data) print(f"数据已保存到 {filename}") if __name__ == "__main__": keyword = "手机" # 搜索关键词 pages = 3 # 爬取页数 products = fetch_jd_products(keyword, pages) save_to_csv(products) ``` --- ### 代码解释 1. **设置请求头**: - 使用 `headers` 模拟浏览器访问,避免被目标网站识别为爬虫。 2. **构造 URL**: - 京东的搜索结果页面 URL 格式为 `https://search.jd.com/Search?keyword={}&enc=utf-8&page={}`。 - 注意:京东的分页机制是奇数页码(如第1页、第3页、第5页等)。 3. **解析 HTML**: - 使用 `BeautifulSoup` 解析 HTML 页面。 - 提取商品标题、链接、价格、销量店铺名称。 4. **异常处理**: - 在提取商品信息时增加了异常捕获,确保程序不会因个别元素缺失而崩溃。 5. **保存数据**: - 使用 `csv.DictWriter` 将提取的数据保存到 CSV 文件中。 6. **设置爬取间隔**: - 使用 `time.sleep(2)` 设置爬取间隔,避免因频繁请求导致被封禁。 --- ### 注意事项 1. **页面结构变化**: - 如果京东更新了页面结构,需要重新检查并调整 CSS 选择器。 2. **反爬虫机制**: - 京东也有一定的反爬虫机制,建议设置合理的请求间隔或使用代理。 3. **依赖安装**: - 确保已安装 `requests` `beautifulsoup4`,可以通过以下命令安装: ```bash pip install requests beautifulsoup4 ``` ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值