
ollama
文章平均质量分 78
卑微俊
这个作者很懒,什么都没留下…
展开
-
本地部署Dify并通过Python访问API
本文将介绍如何在本地部署Dify应用后,通过Python代码访问API并进行数据交互。原创 2024-10-29 15:24:31 · 7758 阅读 · 2 评论 -
GLM4参数解释及模型选择指南
在这篇文章中,我们将探讨GLM4的参数配置,特别是量化类型,以及如何根据这些参数选择最适合你需求的模型。原创 2024-10-28 11:31:48 · 5134 阅读 · 0 评论 -
从零开始!在 Windows 上安装与配置 Dify
这篇博客将详细介绍如何在 Windows 系统上部署 Dify,适合零基础用户。从 Docker 和 WSL 的安装配置开始,逐步指导用户设置 Git、Docker 环境以及 Dify 配置文件,解决可能遇到的端口冲突等问题,最终完成 Dify 的启动和测试。通过简明易懂的步骤,帮助用户在本地成功运行 Dify,实现模型供应商配置,让 Dify 项目在 Windows 平台上顺利上线。原创 2024-10-27 10:30:24 · 47844 阅读 · 55 评论 -
如何将SafeTensors模型转换为GGUF格式
在这篇文章中,我将指导你如何将Hugging Face的SafeTensors模型转换为GGUF格式,以便在ollama平台上运行。这个过程包括克隆llama.cpp仓库、设置Python环境、安装依赖包,以及执行转换脚本。原创 2024-10-20 11:00:37 · 10459 阅读 · 4 评论 -
如何在本地部署Ollama大模型并使用Python进行简单访问
本文介绍了如何在本地部署Ollama大模型平台,并使用Python进行API调用。首先,从官网下载并安装Ollama,然后通过设置环境变量更改模型保存路径。安装后,通过命令行验证安装成功,并从模型库中选择并下载所需模型。接着,启动Ollama的服务器模式,并使用Python的`requests`库向服务器发送请求,获取响应。文中提供了详细的Python代码示例,展示了如何构建请求数据、发送POST请求并打印响应内容。通过这些步骤,用户可以轻松地在本地部署和使用Ollama大模型。原创 2024-10-18 20:17:38 · 8358 阅读 · 2 评论 -
如何在ollama上运行Hugging Face的大语言模型
在这篇博客中,我们将探讨如何在ollama平台上运行Hugging Face的大语言模型。ollama是一个强大的工具,它允许我们轻松地部署和运行大型语言模型。以下是详细的步骤,帮助你从零开始,到成功运行模型。原创 2024-10-19 12:43:12 · 7785 阅读 · 0 评论