新手谷歌浏览器的使用(使用国内的搜索引擎)

一:谷歌浏览器的下载

     一:这个不需要魔法,直接去官网进行下载即可(只需要注意安装路径放置到D盘即可)

Google Chrome 网络浏览器icon-default.png?t=N7T8https://www.google.cn/chrome/?standalone=1&platform=win64&extra=stablechannel

二:下载以后无法打开

一:在搜索框里面搜索关键字

我们会发现搜索了以后就算我们网络正常也一直显示无法访问此网站,这个时候我们只需要做一些更改即可。

二:进行操作后的界面

二:谷歌浏览器的使用

一:更改默认浏览器路径

一:设置

二:搜索引擎

三:地址栏默认启动搜索引擎(设置自己想要的搜索引擎)

四:进行搜索

存在问题:每一次打开都要进行重复操作,那么怎么样能够让他自己就进入默认界面呢。

二:初始启动默认页面

一:默认打开设置,点击启动时

二:设置自己想要的启动页
一:百度的启动页

百度一下,你就知道全球领先的中文搜索引擎、致力于让网民更便捷地获取信息,找到所求。百度超过千亿的中文网页数据库,可以瞬间找到相关的搜索结果。icon-default.png?t=N7T8http://www.baidu.com/

二:必应的启动页

必应icon-default.png?t=N7T8https://cn.bing.com/?form=REDIRERR

三:好用的小插件(后续更新)

### 使用 AutoGPTQ 库量化 Transformer 模型 为了使用 `AutoGPTQ` 对 Transformer 模型进行量化,可以遵循如下方法: 安装所需的依赖包是必要的操作。通过 pip 安装 `auto-gptq` 可以获取最新版本的库。 ```bash pip install auto-gptq ``` 加载预训练模型并应用 GPTQ (General-Purpose Tensor Quantization) 技术来减少模型大小和加速推理过程是一个常见的流程。下面展示了如何利用 `AutoGPTQForCausalLM` 类来进行这一工作[^1]。 ```python from transformers import AutoModelForCausalLM, AutoTokenizer from auto_gptq import AutoGPTQForCausalLM model_name_or_path = "facebook/opt-350m" quantized_model_dir = "./quantized_model" tokenizer = AutoTokenizer.from_pretrained(model_name_or_path) model = AutoModelForCausalLM.from_pretrained(model_name_or_path) # 加载已经量化的模型或者创建一个新的量化器对象用于量化未压缩过的模型 gptq_model = AutoGPTQForCausalLM.from_pretrained(quantized_model_dir, model=model, tokenizer=tokenizer) ``` 对于那些希望进一步优化其部署环境中的模型性能的人来说,`AutoGPTQ` 提供了多种配置选项来自定义量化参数,比如位宽(bit-width),这有助于平衡精度损失与运行效率之间的关系。 #### 注意事项 当处理特定硬件平台上的部署时,建议查阅官方文档以获得最佳实践指导和支持信息。此外,在实际应用场景之前应该充分测试经过量化的模型以确保满足预期的质量标准。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值