
Ollama
文章平均质量分 95
csdn_aspnet
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
在 VS Code 中免费构建类似Cursor的环境
摘要:本文介绍如何用VSCode搭配开源工具替代收费的Cursor AI编辑器。Cursor虽然提供AI编程功能,但每月20美元且存在隐私问题。解决方案包括:1)使用VSCode作为基础IDE;2)安装Continue.dev插件实现AI代码补全和编辑;3)添加Cline扩展支持多文件AI生成;4)通过Ollama本地运行CodeLlama等优化模型,避免云端数据传输。这种组合既能实现Cursor的核心功能,又保障隐私和成本效益,其中本地模型处理基础任务,复杂任务可选择性使用Claude等付费API(单次生原创 2025-07-26 10:28:29 · 899 阅读 · 0 评论 -
如何在 Windows 上安装和使用 Ollama WebUI
Open WebUI是一款可扩展、功能丰富且用户友好的自托管 WebUI,旨在完全离线运行。它支持各种 LLM 运行器,包括 Ollama 和 OpenAI 兼容 API。Ollama WebUI 是一款革命性的 LLM 本地部署框架,具有类似 chatGPT 的 Web 界面。让我们为您部署在 ollama 上的 LLM 获取类似 chatGPT 的 Web UI 界面。只需按照以下 5 个步骤即可开始使用。原创 2025-03-27 09:24:02 · 12601 阅读 · 0 评论 -
Windows 中的 Ollama
Ollama 可让您获取开源模型以供本地使用。它会自动从最佳来源获取模型,如果您的计算机具有专用 GPU,它会无缝地使用 GPU 加速,而无需手动配置。通过修改提示可以轻松实现自定义模型,而 Langchain 不是此操作的先决条件。此外,Ollama 可以作为 docker 映像访问,允许您将个性化模型部署为 docker 容器。原创 2025-03-26 10:59:50 · 13093 阅读 · 0 评论