- 博客(19)
- 资源 (1)
- 收藏
- 关注
原创 NVIDIA GPU Operator介绍
NVIDIA GPU Operator 摘要 NVIDIA GPU Operator 简化了 Kubernetes 集群中 GPU 资源的管理,通过容器化方式自动化部署和维护 GPU 驱动程序及相关组件。相比传统节点直装方式,其核心优势在于: 架构特点: 采用特权容器将驱动挂载到宿主机内核 通过 DaemonSet 实现批量部署和版本管理 严格匹配宿主机内核版本确保兼容性 功能亮点: 支持 vGPU/MIG 实现资源隔离共享 提供 GPUDirect RDMA/Storage 加速数据传输 集成 GDRCo
2025-12-03 16:21:27
1040
原创 OpenStation 新版本技术解读:模型生态拓展与GPU精细化调度优化大模型本地部署
OpenStation新版本针对大模型本地部署的两大痛点进行了优化:在模型生态方面,新增DeepSeek-V3、Moonshot等主流模型,实现多场景覆盖和即下即用,降低适配成本;在资源调度方面,支持单机/分布式部署的精细化GPU管理,避免资源浪费,提升利用率。新版本通过统一接口设计和卡级别性能校准,显著提升了部署效率和灵活性,为开发者提供了更便捷的本地部署解决方案。
2025-12-01 08:48:57
1172
原创 解锁本地大模型潜力:Trae 与 OpenStation 的协同之旅
摘要:针对Trae编程工具无法直接接入本地大模型的痛点,本文提出Trae+RooCode+OpenStation三端协同方案。通过OpenStation快速部署本地模型服务(如Qwen3-1.7B),RooCode插件建立配置通道,实现Trae对本地化AI能力的调用。该方案解决了金融、政务等领域的数据隐私需求,支持5分钟内完成从模型部署到工具集成的全流程,为开发者提供安全灵活的AI编程环境。
2025-09-08 09:19:18
1696
原创 双网卡聚合bond+vlan配置
本文介绍了双网卡服务器的网络配置方案,通过Bond技术将两个万兆网卡聚合提升网络吞吐量和可用性。具体步骤包括:1)关闭NetworkManager服务;2)创建bond0主配置文件及164、40两个VLAN子接口;3)修改原始网卡配置指向bond0;4)配置bonding服务并重启网络。配置完成后,管理网络(100.7.66.xxx)可对外访问,存储网络(192.168.20.xxx)用于集群内通信。交换机需配置动态链路聚合trunk模式,放通对应VLAN。最后需验证网卡速率和网络连通性。
2025-08-20 09:51:04
777
原创 构建模型分析助手:基于OpenStation + ModelScope MCP的一体化Agent实践
【摘要】本文介绍了一套基于OpenStation和ModelScope的高效AI模型分析方案,通过搭建Agent智能体和工具库实现自动化模型追踪与分析。方案核心优势在于简化"模型文件到API"的转化流程,支持主流模型一键部署和完整工具链衔接。具体实施分四步:1)部署模型服务作为Agent"大脑";2)创建ModelScope工具库打通数据;3)配置Agent实现模型工具协同;4)集成客户端测试工作流。该方案将模型分析从人工搜集升级为智能驱动,使分析师能专注于模型评估和
2025-08-19 09:42:29
2288
原创 Linux下使用ssh-agent实现集群节点间无免密安装部署
摘要:本文介绍利用ssh-agent服务实现集群节点间非免密访问的安全方案。通过ssh-agent代理管理私钥,可自动选择密钥认证并避免重复输入密码短语。具体实现步骤包括:1)清除所有节点密钥文件;2)在各master节点生成带口令密钥;3)分发公钥至所有节点;4)配置加密私钥口令;5)执行任务时启动ssh-agent并添加密钥实现临时免密;6)任务完成后移除密钥并终止服务。该方法通过密钥托管机制替代传统免密配置,既保持操作便利性又提升安全性,适用于集群管理节点间的安全访问。
2025-08-18 17:20:32
1209
原创 CentOS7镜像集成NVIDIA驱动及PXE环境安装系统
本文主要介绍了Linux系统的基础知识和PXE自动化安装环境搭建。内容涵盖Linux启动过程、EFI固件接口、Kickstart自动安装配置、磁盘RAID级别、VMware网络模式等基础知识,重点讲解了如何定制集成NVIDIA驱动的CentOS ISO镜像,包括修改initrd.img、squashfs.img文件系统,重新编译内核以及制作驱动RPM包等步骤。此外,详细阐述了PXE工作原理和环境搭建流程,包括DHCP、TFTP、HTTP服务的配置,以及内核文件、引导程序的部署方法,为自动化安装Linux系统
2025-08-12 10:30:52
965
原创 从基础编辑器到智能中枢:OpenStation 为 VSCode 注入大模型动力
摘要: VSCode集成本地大模型显著提升开发效率。通过OpenStation平台,开发者可轻松部署本地大模型。配合Continue插件接入VSCode编辑器,实现智能代码补全、错误检查等功能。工具组合降低了AI应用门槛,使本地大模型成为开发流程的自然延伸。
2025-08-12 09:28:53
1372
原创 通过iptables规则限制访问docker容器端口
摘要:本文分析了Docker网络访问控制机制,重点阐述如何通过iptables限制外部访问Harbor仓库。Docker默认创建DOCKER、DOCKER-ISOLATION和DOCKER-USER链,其中DOCKER-USER链用于添加自定义规则。建议在DOCKER-USER链中设置过滤规则(如仅允许特定IP访问Harbor容器),但需注意容器IP可能变化。关键发现:防火墙重启可能导致规则失效,必须重启Docker恢复链顺序。文中提供了示例规则和测试结果,验证了该方案的有效性,同时强调规则维护的重要性。
2025-08-11 14:25:06
1215
原创 打造专属Agent:OpenStation + Confluence 构建团队知识库智能助手
摘要:本文介绍如何利用OpenStation平台构建Confluence智能助手,解决开发团队知识管理痛点。通过部署Qwen3-1.7B模型、配置Confluence MCP工具和创建Agent服务,实现知识库的智能检索和分析。该方案无需编码,通过配置即可完成部署,将大模型推理能力与Confluence知识管理无缝融合,帮助团队从"人找信息"转向"信息找人",提升开发效率。OpenStation降低了AI应用门槛,使构建专属知识库Agent变得简单高效。
2025-08-04 09:29:56
1147
原创 构建 Agent 智能体:OpenStation 与 Coze Studio开发平台集成实践
本文介绍了OpenStation+CozeStudio组合架构在AI私有化部署中的应用方案。该方案解决了模型管理分散、服务化成本高、应用迭代慢三大痛点:OpenStation负责模型本地化部署与全生命周期管理,CozeStudio实现可视化应用编排。文章详细展示了Qwen3模型部署流程、与CozeStudio的集成配置方法,并通过Agent智能体案例演示了从搭建到发布的完整流程。该组合架构通过标准API解耦,形成完整的AI工程流水线,显著降低AI应用构建门槛,提升开发效率。
2025-07-30 09:15:22
854
原创 从LLM到智能出行助手:OpenStation的Agent化实践
本文探讨了如何通过OpenStation平台将大语言模型(LLM)改造为具备实时交互能力的智能出行助手。文章指出纯LLM系统的三大局限:信息时效性不足、功能边界固定和复杂任务分解能力弱。针对这些问题,作者详细介绍了OpenStation平台的技术架构,包括MCP工具链和Agent管理系统,并演示了如何基于Qwen3-0.6B模型构建出行助手的完整流程,涵盖天气查询、时间服务和交通状况查询等核心功能的集成。
2025-07-28 09:22:01
1099
原创 构建Agent智能体:OpenStation + MCP 工具协同管理实践
本文介绍了OpenStation平台在本地化大模型应用中的完整技术闭环,包括模型服务部署、MCP工具管理和Agent联动三大核心模块。模型服务部署模块解决了"模型-资源-引擎"的匹配问题,支持从单机到分布式的高效推理;MCP工具模块提供预置和自定义工具能力,简化外部API调用;Agent管理模块将模型与工具绑定,实现智能决策。文章详细讲解了各模块的部署流程和技术细节,并通过天气查询、网络检索等实例展示了完整搭建过程,为开发者提供了一套可落地的本地化AI智能体解决方案。
2025-07-21 09:03:05
1960
原创 构建企业级 AI 应用:OpenStation 与 Dify 应用平台的深度集成实践
摘要:OpenStation与Dify组合架构解决了私有化AI部署中的三大痛点:模型管理碎片化、服务化成本高和应用迭代低效。二者深度集成后,可实现一键模型部署、自动流量分发和流式输出,形成从模型管理到应用发布的完整AI工程流水线。
2025-07-14 09:28:07
2323
原创 实测OpenStation:大模型部署与管理的工程化实践
OpenStation是一款专为大模型部署设计的全流程管理平台,提供从资源管理到服务上线的完整解决方案。平台支持CPU/GPU混合调度、模型断点续传、弹性伸缩服务等核心功能,可实现多节点分布式推理和精细化的资源控制。通过标准化API接口和WebUI集成,开发者能快速部署Qwen等主流大模型,并实现多租户权限管理。目前支持Ubuntu/CentOS系统,提供在线/离线两种部署方式,显著降低了大模型落地的技术门槛。该平台特别适合需要高效管理计算资源和企业级权限控制的中大规模AI应用场景。
2025-07-07 09:20:59
1431
原创 告别复杂部署!OpenStation让大模型落地像搭积木一样简单
OpenStation用一套界面整合了「模型仓库 + 用户管理 + 监控系统 + WebUI 集成」的能力,把大模型部署从“系统工程”简化为“产品操作”。
2025-06-18 08:55:14
1125
2
原创 OpenStation:10分钟完成大模型部署,一键开启AI应用落地之旅
面对上述那些实实在在的问题,OpenStation一站式大模型部署平台通过全自动化的安装流程与智能环境配置,无论是技术团队还是业务人员,都能在10分钟内完成从环境搭建到服务上线的全流程操作。:提供 在线 / 离线双部署模式,在线模式自动拉取最新依赖,离线模式支持断网环境下的完整部署(离线包已集成 10.1GB 的组件与镜像),从而解决离线部署困难问题。:企业内部生产环境常常严格隔离互联网,手动下载所有依赖、解决复杂的离线编译和安装问题,耗时耗力且极易出错,从而拉长了大模型落地的部署时间。
2025-06-12 10:01:36
978
1
转载 团队部署DeepSeek R1-0528 满血版踩坑记:从Ollama到OpenStation的实践
本文讨论了团队部署 DeepSeek R1 - 0528 满血版模型的实践过程,从尝试 Ollama 遇到问题,到发现 OpenStation 解决痛点,最后给出总结与使用建议。
2025-06-07 11:13:15
290
1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅