- 博客(14)
- 收藏
- 关注
原创 Python项目结构与打包工具实践
本文介绍了Python项目打包的现代实践方法,重点对比了传统项目布局与推荐的src-layout(源布局)两种目录结构。传统布局将代码直接放在根目录下,而src-layout将源码置于src目录中,能有效避免命名空间污染。文章详细说明了pyproject.toml作为现代构建配置文件的优势,包括标准化配置和构建环境隔离等特性。同时提供了使用python-mbuild工具进行打包的完整流程,涵盖了安装工具、执行打包、产物说明等内容。最后给出了标准的项目目录结构建议,强调src布局结合pyproject.tom
2025-07-26 17:53:03
842
原创 2-3 智能提示词设计:教育场景、智能面试与企业实践的全场景解析
本文系统梳理了提示词设计的核心框架与实践案例,涵盖教育场景(如教学互动、知识评估)、面试场景(智能面试官的流程设计)及企业应用(如Dify构建的AI面试系统)。通过结构化提示词模板、风险控制机制与实战案例分析,探讨如何高效构建AI交互场景,提升技术评估的准确性与用户体验。文章结合教育、招聘等多领域实践,提供可复用的提示词设计方法论,助力AI技术在复杂场景中的落地应用。
2025-07-15 15:10:34
1343
原创 2-2 LLM大模型实战调优:DeepSeek-R1与Qwen2.5中温度参数与采样策略(Top-K/Top-P参数)最佳应用实践
本文探讨了深度学习文本生成模型中关键参数的调节策略。温度参数(0.1-1.5)控制文本随机性,高温适合创意写作,低温适用于技术文档;Top-K(10-200)和Top-P(0.4-0.95)共同影响生成多样性,K/P值越高多样性越强但风险越大。参数组合策略建议:创意写作用高温+高P值(T=1.2+P=0.95),技术文档用低温+中K值(T=0.3+K=50)。特殊场景需动态调节,如长文本采用温度衰减策略(1.2→0.7→0.9),安全敏感内容强制T=0。合理配置这些参数能显著提升生成质量。
2025-07-12 16:37:13
1195
原创 2-1 Dify对话应用案例实践 — 基础聊天助手
本文详细介绍了如何在 Dify 平台上创建一个基础聊天助手。通过一系列步骤,包括登录平台、创建应用、编排界面配置、设置提示词工程以及测试与优化等环节,帮助开发者掌握构建智能对话应用的基本流程。文章不仅提供了详细的操作指南,还分享了实际案例和关键技巧,适合初学者快速上手并深入理解 Dify 平台的功能。通过本文的学习,读者可以轻松创建一个功能完善的基础聊天助手,并进行发布与更新。
2025-07-12 11:11:18
1255
原创 1-1、LLM、Agent与MCP全解析:概念、原理与应用
LLM、Agent与MCP技术解析:概念、区别与协作 摘要:本文系统解析了LLM(大语言模型)、智能体(Agent)和MCP(模型上下文协议)三大AI核心技术。LLM作为语言处理基础,擅长文本生成但缺乏行动能力;智能体整合LLM的推理能力与外部工具,形成感知-决策-执行的闭环系统;MCP则作为标准化协议,解决工具接入碎片化问题。三者构成层级关系:LLM提供认知能力,MCP建立工具连接标准,智能体实现任务自动化。典型应用中,LLM处理语言任务,智能体完成复杂流程,MCP则保障跨平台数据交互的安全高效。这种技术
2025-07-11 08:17:14
897
1
原创 1-9 当Docker Desktop遭遇WSL错误,我们该如何应对?
摘要:本文针对Docker Desktop出现的"Unexpected WSL error"问题,分析了错误原因并提出解决方案。当WSL2分发版损坏或丢失时,Docker引擎会停止工作。解决方法包括:检查并卸载损坏的WSL分发版、终止所有WSL实例、重启Docker Desktop、检查Windows功能与服务设置,必要时重新安装Docker Desktop。通过系统排查和逐步修复,可以有效解决该问题,并建议保持系统更新以预防类似故障。
2025-07-10 10:24:59
815
原创 1-8 Dify平台整合Ollama与Xinference模型:构建高效智能推理服务
本文详细介绍了如何将Ollama大语言模型和Xinference推理平台整合到Dify开发平台。Dify作为LLM应用开发平台,通过环境变量配置对接Ollama/Xinference的API接口。Ollama提供轻量级对话模型本地部署,Xinference支持分布式推理和多模态模型。文章分步骤演示了在Dify中接入Ollama和Xinference的具体流程,包括模型测试、参数配置和网络验证等关键环节,实现高效智能的模型推理服务构建。最终完成两类模型的成功接入,为AI应用开发提供全栈能力支持。
2025-07-09 12:10:18
853
原创 1-7 Ollama与Xinference核心功能差异对比:架构设计与应用场景综合分析
本文深入对比分析了Ollama与Xinference两大工具的核心功能差异,从架构设计到应用场景进行了全面剖析。文章首先阐述了两者在目标用户、设计理念和硬件适配方面的定位差异,随后详细对比了模型支持能力、部署与扩展性、API与开发生态以及多模态与高级功能等方面的特点。通过具体场景的选择建议,文章进一步揭示了Ollama作为轻量级实验工具与Xinference作为企业级推理平台的互补性。最后,文章总结了两者在技术栈和生态扩展能力上的本质差异,并为个人开发者、教育场景以及企业生产系统提供了针对性的决策建议。
2025-07-08 10:56:48
1184
原创 1-6 Dify本地私有化部署—Xinference部署和模型启动
本文介绍了Xinference分布式推理框架的介绍、准备工作、镜像和单机部署、模型部署方法等方面。Xinference是一款性能强大且功能全面的分布式推理框架,专门为大规模模型推理任务设计。它通过简化模型部署流程和优化推理性能,帮助开发者在个人电脑或分布式集群中高效运行各类AI模型。文章还提供了详细的部署步骤和模型部署方法,包括使用Docker Hub拉取镜像、挂载模型目录、访问Web UI、使用UI操作启动模型等。此外,还介绍了启动模型的命令行方法,以及通过API动态加载模型的方法。
2025-07-07 15:53:49
1816
原创 1-5 Dify本地私有化部署—Ollama部署
摘要:Ollama是一款开源大语言模型本地化部署平台,支持1700+预训练模型的离线运行。安装时默认路径为C盘,可通过配置OLLAMA_MODELS环境变量修改模型存储位置,设置OLLAMA_HOST为0.0.0.0开放局域网访问。核心操作包括:ollama run运行模型(首次自动下载)、ollama list查看已安装模型、ollama rm删除模型。默认服务端口11434,可通过Web界面交互。该平台简化了私有化模型部署流程,支持多模型管理和命令行操作。(149字)
2025-07-06 19:48:29
955
原创 1-4 Dify本地私有化部署—Dify部署
Dify本地部署简明教程:1)从GitHub下载源码并解压;2)修改docker目录下的.env文件,将端口改为8890;3)通过docker-compose启动服务;4)浏览器访问localhost:8890完成初始设置。整个部署过程约需十几分钟,首次使用需创建管理员账号。
2025-07-06 17:13:01
392
原创 1-3 Windows Docker Desktop安装与设置docker实现容器GPU加速
本文介绍了在Windows 10/11系统上部署Docker环境的完整流程。首先需要启用虚拟化技术(WSL 2和Hyper-V),通过PowerShell命令配置WSL 2并更新内核。安装过程中需特别注意Hyper-V虚拟化技术的开启方法,包括BIOS设置和Windows功能启用。Docker安装完成后,建议修改默认镜像存储位置以节省C盘空间。最后配置了多个国内镜像加速地址,并通过docker info命令验证安装成功。整个流程包含详细的命令行操作和图示说明,适合Windows用户快速搭建Docker开发环
2025-07-06 11:26:53
939
原创 1-2 Dify平台介绍
Dify是一款开源的大语言模型(LLM)应用开发平台,提供从模型训练到部署的全流程工具。其核心功能包括多模型支持、可视化Prompt编排、RAG引擎、智能代理框架等,简化了传统LLM开发中的数据准备、Prompt工程等复杂环节。平台支持企业级应用场景,提供实时监控、性能优化等功能,降低技术门槛,使非技术人员也能参与开发。Dify通过标准化解决方案,解决了LLM开发中效率低、扩展难等问题,显著提升了开发效率和模型效果。
2025-07-05 10:03:27
944
原创 1-1 DeepSeek、Dify、Ollama与Xinference入门简介
本文介绍了DeepSeek、Dify、Ollama和Xinference等工具的功能与应用场景,并通过构建智能客服系统的实际案例,展示了这些技术在提升客户体验、降低人工成本和提高响应速度方面的具体应用
2025-07-05 00:10:24
303
Java后端开发+SpringBoot Redis+缓存配置+Spring Cache注解集成
2025-07-08
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人