设置cursor不更新(我目前是0.42.5)

第一步 卸载缓存过重的cursor

这个过程大家可以选择geek卸载

第二步 重新安装0.42.5版本的cursor

这个过程大家就是正常安装就可以 win 双击

第三步

通过点击右上角的Cursor的设置按钮,进入到Cursor的功能设置页面。在这里插入图片描述
进入到Cursor配置页面之后,进入到​​General​​的配置页面,然后向下查找,就可以找到​​Editor​​的配置选项,打开其中的​​Open editor settings​​的配置
在这里插入图片描述
通过打开设置的配置,就会进入到下面这个配置页面。 找到​​应用程序​​选项,就会发存在一个​​更新​​的配置
在这里插入图片描述

关闭Cursor自动更新

点击进入到​​Update​​配置选项之后,在​​Mode​​的这个地方需要选择​​none​​。选择​​none​​就表示关闭了Cursor的自动更新

在Cursor相关目录下,禁止Cursor自动更新

删除Cursor的更新缓存文件夹
以Windows为例,Cursor更新缓存文件夹路径为

C:\Users\{你的用户名}\AppData\Local\cursor-updater

找到这个cursor-updater文件夹,直接把整个文件夹删除掉

在这个目录下,新建一个文件,去掉后缀名,取名为cursor-updater(这里主要是占位文件)

禁止Cursor自动更新

进入Cursor安装目录,windows位置为

C:\Users\{你的用户名}\AppData\Local\Programs\cursor

进入上面目录中的resources文件夹
在这里插入图片描述
把 resources 目录里的 app-update.yml 删除之后新建文本文档, 将新文件名称改为 app-update.yml
选中app-update.yml文件,鼠标右键 -> 属性,勾选“只读”,点击确定

通过完成上面的设置,恭喜你,已经成功禁止了Cursor的自动更新

### 使用 AutoGPTQ 库量化 Transformer 模型 为了使用 `AutoGPTQ` 对 Transformer 模型进行量化,可以遵循如下方法: 安装所需的依赖包是必要的操作。通过 pip 安装 `auto-gptq` 可以获取最新版本的库。 ```bash pip install auto-gptq ``` 加载预训练模型并应用 GPTQ (General-Purpose Tensor Quantization) 技术来减少模型大小和加速推理过程是一个常见的流程。下面展示了如何利用 `AutoGPTQForCausalLM` 类来进行这一工作[^1]。 ```python from transformers import AutoModelForCausalLM, AutoTokenizer from auto_gptq import AutoGPTQForCausalLM model_name_or_path = "facebook/opt-350m" quantized_model_dir = "./quantized_model" tokenizer = AutoTokenizer.from_pretrained(model_name_or_path) model = AutoModelForCausalLM.from_pretrained(model_name_or_path) # 加载已经量化的模型或者创建一个新的量化器对象用于量化未压缩过的模型 gptq_model = AutoGPTQForCausalLM.from_pretrained(quantized_model_dir, model=model, tokenizer=tokenizer) ``` 对于那些希望进一步优化其部署环境中的模型性能的人来说,`AutoGPTQ` 提供了多种配置选项来自定义量化参数,比如位宽(bit-width),这有助于平衡精度损失与运行效率之间的关系。 #### 注意事项 当处理特定硬件平台上的部署时,建议查阅官方文档以获得最佳实践指导和支持信息。此外,在实际应用场景之前应该充分测试经过量化的模型以确保满足预期的质量标准。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值