
大模型
文章平均质量分 51
一路追寻
这个作者很懒,什么都没留下…
展开
-
MCP-Model Context Protocol
像 Claude Desktop、IDE 或 AI 工具这样的程序,它们希望通过 MCP 访问数据。:可通过互联网(例如通过 API)提供的外部系统,MCP 服务器可以连接到这些系统。:您的计算机文件、数据库和服务,MCP 服务器可以安全地访问这些内容。:通过标准化模型上下文协议公开特定功能的轻量级程序。:维护与服务器的 1:1 连接的协议客户端。原创 2025-03-21 14:58:57 · 333 阅读 · 0 评论 -
conda命令
conda是一个开源的包管理器和环境管理器,广泛用于安装和管理Python环境和库。下面是一些常用的conda命令,从基础到高级命令。转载 2024-12-13 09:58:43 · 60 阅读 · 0 评论 -
使用Ollama测试OpenAI的Swarm多智能体编排框架
【代码】使用Ollama测试OpenAI的Swarm多智能体编排框架。原创 2024-10-17 16:22:56 · 428 阅读 · 0 评论 -
在 Python 中使用 Ollama API
host: 要连接的 Ollama 主机timeout: 请求超时时间'content': '为什么天空是蓝色的?',},])原创 2024-10-16 10:44:23 · 2876 阅读 · 1 评论 -
LLM Studio在本地运行各种开源大模型
LLM(语言模型)Studio是一种用于本地运行语言模型的技术,使用户能够在自己的设备上使用该模型而无需连接到互联网。离线访问: 与依赖互联网的在线模型相比,LLM Studio使用户能够在没有网络连接的情况下使用模型,这在某些情况下可能很重要,比如在网络环境不稳定或无法访问互联网时。更新和维护: 使用LLM Studio,用户需要自行负责模型的更新和维护工作,包括及时应用新的模型版本和安全补丁。速度和效率: 通过本地运行模型,可以减少与互联网连接相关的延迟,从而提高模型响应速度和整体性能。原创 2024-05-15 13:41:57 · 2328 阅读 · 2 评论