- 博客(5)
- 收藏
- 关注
原创 VMware的下载和安装
找到自己想要下载的版本,点击Release下方的蓝色版本链接跳转页面,勾选新页面这里的小方框同意一下条款和协议才能点击下载按钮。下载方式更新为需通过博通(Broadcom)官网注册账户后下载(没有注册的用户将无法跳转下载页面进行下载 )登录之后的下载界面下滑找到VMware Workstation Pro点击进入具体应用的下载界面。自动返回下载页面之后这时再次点击一下下载按钮便可以成功下载。刚注册好的用户点击下载按钮之后会出现一个提示框点击Yes。然后点击右下角的Submit按钮完成自动返回下载页面。
2025-04-02 12:55:26
276
原创 GitHub类镜像
源于GitHub在国内访问不稳定,使用cloud flare平台免费服务搭建一个可以正常访问的GitHub页面(PS 注意该网站、页面不要进行GitHub账号注册、登录以及填写个人信息、密码等!替换之后的链接输入浏览器访问即可进行正常下载,使用idm等加速软件效果更明显(迅雷请自行测试,不保证迅雷可以下载)(替换过程为将github.com替换成test999.xzc888.top即可其它不变)在GitHub资源下载时复制其下载链接同时配合使用idm等第三方加速下载软件。
2025-02-27 15:10:43
640
原创 LM Studio使用
下载完成后界面打开为英文 点击next(或者右上角skip)进入主界面之后。点击右下角齿轮打开设置界面,在language中选择 简体中文。点击发现按钮,根据最佳匹配下载合适自己电脑的模型即可。
2025-02-18 14:58:18
386
原创 如何使用 Ollama 下载、本地部署和使用 DeepSeek 模型
Ollama是一个开源工具,旨在简化大语言模型的本地部署和管理。它支持多种模型格式,并提供简单的命令行接口,方便开发者快速下载、运行和测试模型。模型量化是一种通过降低模型参数的精度(如从 32 位浮点数降到 8 位整数)来减少模型大小和计算量的技术。量化可以显著提高模型的推理速度,并降低对 GPU 资源的需求。通过 Ollama,我们可以轻松下载、本地部署和量化 DeepSeek 模型。量化技术可以显著提升模型的推理性能,并降低对 GPU 资源的需求。
2025-01-30 14:34:41
41538
4
原创 ollama版本国内加速下载
本方法使用cloud flare的work搭建一个代理功能。复制该链接至浏览器或IDM软件进行下载(ps 迅雷报毒)点击GitHub链接,relase 跳转资源下载界面。找到要下载的资源文件,鼠标右击点击复制链接。复制链接后找个地方粘贴一下。实现下载GitHub资源。主要针对ollama。
2024-11-22 23:14:27
63449
21
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人