Vscode解决Setting.json报警告:Problems loading reference ... Unable to load schema from ...

一. 问题分析

在vscode中打开设置文件setting.json时,问题窗口会报警告,如下图所示。.

image-20210416235442553

Ctrl + C 复制下警告信息,粘贴到txt中,显示如下:

{
“resource”: “/C:/Users/xu/AppData/Roaming/Code/User/settings.json”,
“owner”: “generated_diagnostic_collection_name#0”,
“code”: “768”,
“severity”: 4,
“message”: “Problems loading reference ‘https://raw.githubusercontent.com/streetsidesoftware/cspell/cspell-lib%404.3.4/cspell.schema.json#/definitions/OverrideSettings’: Unable to load schema from ‘https://raw.githubusercontent.com/streetsidesoftware/cspell/cspell-lib%404.3.4/cspell.schema.json’: Request vscode/content failed unexpectedly without providing any details.”,
“startLineNumber”: 1,
“startColumn”: 1,
“endLineNumber”: 1,
“endColumn”: 2
}

翻译出来大致意思是,无法从网站raw.githubusercontent.com中加载架构,

猜测出现此警告的原因是:网站githubusercontent应是一个与Github同类型的网站,在国内无法直接访问,自然无法从此网站加载任何信息,因此出现此警告。

参考Vscode官方文档 — Editing JSON with Visual Studio Code:https://code.visualstudio.com/Docs/languages/json#_json-schemas-and-settings

文档最后的Offline mode显示如下:

image-20210416235946988

翻译一下:

json.schemaDownload.enable控制JSON扩展是否从httphttps获取JSON模式。

当前编辑器想要使用架构但无法下载时,状态栏中会显示一个警告三角形。

这里就证实了原先的猜测,确实是因为vscode在处理json文件时默认去一个国外网站加载架构,而国内又无法加载成功,才导致了出现警告。

二. 解决办法

解决办法很简单,将json文件的处理方式从默认的在线方式改为离线方式即可。

步骤如下:

  1. 在vscode中,点击左下角设置图标,点击在线服务设置

    image-20210417000245877

  2. 在打开的设置选项卡中选择JSON,取消勾选Schema Download:Enable设置,OK了。

image-20210417000534643

这时,在Vscode的设置配置文件setting.json的最后会多出如下一行代码。你可以直接复制此代码,把它放到你的setting,json中,和上述操作效果一样。

  "json.schemaDownload.enable": false,

操作演示:

json_schemaDownload_enable_false

### 使用 AutoGPTQ 库量化 Transformer 模型 为了使用 `AutoGPTQ` 对 Transformer 模型进行量化,可以遵循如下方法: 安装所需的依赖包是必要的操作。通过 pip 安装 `auto-gptq` 可以获取最新版本的库。 ```bash pip install auto-gptq ``` 加载预训练模型并应用 GPTQ (General-Purpose Tensor Quantization) 技术来减少模型大小和加速推理过程是一个常见的流程。下面展示了如何利用 `AutoGPTQForCausalLM` 类来进行这一工作[^1]。 ```python from transformers import AutoModelForCausalLM, AutoTokenizer from auto_gptq import AutoGPTQForCausalLM model_name_or_path = "facebook/opt-350m" quantized_model_dir = "./quantized_model" tokenizer = AutoTokenizer.from_pretrained(model_name_or_path) model = AutoModelForCausalLM.from_pretrained(model_name_or_path) # 加载已经量化的模型或者创建一个新的量化器对象用于量化未压缩过的模型 gptq_model = AutoGPTQForCausalLM.from_pretrained(quantized_model_dir, model=model, tokenizer=tokenizer) ``` 对于那些希望进一步优化其部署环境中的模型性能的人来说,`AutoGPTQ` 提供了多种配置选项来自定义量化参数,比如位宽(bit-width),这有助于平衡精度损失与运行效率之间的关系。 #### 注意事项 当处理特定硬件平台上的部署时,建议查阅官方文档以获得最佳实践指导和支持信息。此外,在实际应用场景之前应该充分测试经过量化的模型以确保满足预期的质量标准。
评论 15
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值