
人工智能
文章平均质量分 89
爱的叹息
to be or not to be ,this is a question
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Python pip命令详解:从安装到卸载全掌握
本文详细介绍了Python包管理工具pip的常用命令及功能,包括安装(pip install)、卸载(pip uninstall)、查看已安装包(pip list)、显示包信息(pip show)等操作。特别说明了各命令的常用选项参数,如--upgrade升级包、--user用户安装等,并附有具体示例。最后总结了命令速查表,帮助开发者快速掌握pip的使用技巧,提升Python项目依赖管理的效率。原创 2025-05-30 14:35:42 · 1245 阅读 · 0 评论 -
Python四大环境管理工具全解析
本文详细介绍了四种Python环境管理工具:Virtualenv、Conda、Pipenv和Poetry。Virtualenv轻量简单,适合小型项目;Conda功能强大,支持多语言包管理;Pipenv自动化程度高,注重依赖安全;Poetry集成了包管理和项目发布功能。通过对比表格展示了它们的环境管理、包管理、依赖锁定等核心特性差异,并给出适用场景建议。用户可根据项目需求选择合适工具,如小型项目用Virtualenv,科学计算选Conda,严格依赖管理用Pipenv,现代项目开发推荐Poetry。原创 2025-05-30 14:28:55 · 1392 阅读 · 0 评论 -
30款Python开发神器,效率倍增
Python开发工具全指南:从编写到部署的高效选择 摘要:本文全面介绍了Python开发中的实用工具链,涵盖IDE(VS Code/PyCharm)、代码编辑器、虚拟环境管理(venv/conda)、包管理(pip/pipx)、代码质量检测(flake8/black)、测试框架(pytest)、文档生成(Sphinx)、性能分析(cProfile)、版本控制(Git)和自动化部署(Docker)等10大类工具。针对不同开发场景如数据分析、Web开发和小型脚本,文章推荐了针对性工具组合,帮助开发者根据项目需求原创 2025-05-30 14:15:25 · 925 阅读 · 0 评论 -
使用Python、LangChain和Ollama本地实现取名程序
本文介绍了使用Python、LangChain和Ollama本地构建命名程序的完整方案。通过安装Ollama本地大模型服务,结合LangChain框架创建适配器,实现根据关键词自动生成名称的功能。该程序支持5个名称的批量生成,并可选扩展为FastAPI Web服务。文章详细展示了从环境配置到核心代码实现的全过程,包括服务检查、提示词设计、名称解析等关键技术点。该方案具有本地运行、可定制性强等特点,适用于企业命名、产品命名等场景,开发者可根据需求进一步优化模型参数和功能扩展。原创 2025-05-30 14:12:39 · 348 阅读 · 0 评论 -
LangChain大模型应用开发全攻略
LangChain 完整学习路线图摘要 LangChain 是构建语言模型应用的强大框架,提供从基础到高级的全套开发工具。学习路径分为四个阶段: 1️⃣ 基础准备:了解LLM原理、Python编程和环境配置 2️⃣ 核心模块:掌握六大核心组件(模型、提示模板、链、记忆、代理、索引)及其组合应用 3️⃣ 实战开发:构建智能客服、知识库问答、数据分析助手等典型应用 4️⃣ 高阶进阶:探索多模态支持、性能优化和自定义组件开发 关键优势:通过模块化组件实现LLM应用的快速开发,支持从简单文本生成到复杂决策系统的构建原创 2025-05-30 09:14:35 · 566 阅读 · 0 评论 -
LangChain三大消息模式解析:AIMessage、HumanMessage 和 SystemMessage
LangChain 的 schema 定义了三种角色类型的数据模式:AIMessage、HumanMessage 和 SystemMessage,用于构建结构化的对话系统。AIMessage 代表 AI 生成的回复,HumanMessage 代表用户的输入,SystemMessage 则提供对话的上下文或规则。通过这三种消息类型,对话系统能够更智能地处理用户查询并生成合适的回复。例如,用户询问天气时,HumanMessage 表示用户问题,AIMessage 表示 AI 的回复,而 SystemMessag原创 2025-05-20 17:37:11 · 1740 阅读 · 0 评论 -
手把手教你用LangChain+Ollama打造本地取名神器
本文详细介绍了如何在一台新安装 Windows 10 的电脑上,使用 LangChain 和本地部署的开源大语言模型(如 tiny-llama 或 phi2)开发一个取名应用。步骤包括安装 Python、Git(可选)、Ollama,拉取轻量级模型,安装 LangChain 及相关依赖,编写 Python 脚本实现取名功能,并最终运行程序。整个过程无需联网或 API 密钥,完全本地运行,适合初学者入门本地 AI 应用开发。文章还提供了扩展建议,如添加 GUI 界面、导出功能等,以增强应用的功能性。原创 2025-05-20 17:23:12 · 954 阅读 · 0 评论 -
LangChain API密钥管理全攻略
LangChain 提供了多种灵活的 API 密钥管理策略,适用于不同规模和需求的项目。常见的策略包括通过环境变量、.env 文件、硬编码传参、自定义封装类以及集成企业级密钥管理工具(如 AWS Secrets Manager、HashiCorp Vault 等)。环境变量和 .env 文件适合开发和团队协作,而硬编码传参仅适用于快速测试。对于中大型项目,建议使用自定义封装类或集成企业级密钥管理工具,以提高安全性和可维护性。LangChain 不强制规定密钥管理方式,开发者可根据项目需求选择合适策略,确保系原创 2025-05-20 16:59:20 · 760 阅读 · 0 评论 -
向量存储系统:高维数据检索的未来
向量存储系统(Vector Store)是一种专门用于高效存储、索引和检索高维向量数据的系统,广泛应用于推荐系统、图像搜索、语义相似度匹配、RAG(Retrieval-Augmented Generation)等场景。其核心功能是将非结构化或半结构化数据(如文本、图片、音频)转换为嵌入向量后进行存储与快速检索。向量存储系统解决了海量数据检索慢、语义理解不足、动态更新困难、内存占用大等问题,包含编码器、向量索引构建、向量插入/更新、向量检索、持久化与恢复、分布式支持等功能模块。典型应用场景包括推荐系统、图像检原创 2025-05-20 16:33:20 · 448 阅读 · 0 评论 -
LangChain与LEDVR:构建智能问答系统
LangChain 是一个用于构建语言模型应用的框架,支持多种工作流模式,如 LEDVR(加载、提取、分割、向量化、检索)。结合 RAG(检索增强生成)技术,可以实现基于知识库的问答系统。本文通过一个完整的示例,展示了如何使用 LangChain 实现基于 LEDVR 的 RAG 功能,构建一个能够回答本地 PDF 文件内容的 AI 应用。示例代码详细演示了从加载 PDF 文件、提取和分割文本、向量化、检索到生成答案的完整流程。LangChain 的优势在于支持多种数据源、易于扩展和替换组件,适合构建复杂原创 2025-05-20 16:25:14 · 462 阅读 · 0 评论 -
LangChain:构建高效LLM应用的终极指南
组件名称功能描述常见类/方法LLM提供语言模型接口ChatOpenAILlamaCpp定义结构化提示词模板Chain将组件组合为可复用流程LLMChainMemory存储对话历史外部功能调用与自动化决策Tool加载与检索文档信息ChromaFAISSLangChain 提供了高度模块化的组件体系,使得开发者可以灵活构建复杂的 LLM 应用。通过结合LLMPromptChainMemoryAgentTool等组件,可以快速实现智能客服、文档问答、数据分析等多种应用场景。原创 2025-05-18 19:29:27 · 986 阅读 · 0 评论 -
LangChain SQL提示词:精准查询指南
项目内容角色定位PostgreSQL 专家,专注于生成正确的 PostgreSQL 查询结果数量使用LIMIT子句,默认返回top_k条记录列选择只查询所需列,用双引号包裹列名列名准确性确保列名存在于表中,注意列所属表日期处理涉及“今天”时,使用函数格式要求固定格式:问题、SQL 查询、SQL 结果、答案表信息仅使用给定的表结构信息通过上述步骤和示例,我们可以清晰地理解如何利用 LangChain 提供的格式化 SQL 提示词模板来生成准确的 SQL 查询并得到最终答案。原创 2025-05-18 07:06:05 · 594 阅读 · 0 评论 -
LLM应用开发全攻略:从定义到部署
LLM(大型语言模型)应用开发 是基于大语言模型(如 Qwen, ChatGPT, Llama 等)构建智能应用系统的过程,涵盖自然语言理解、生成和对话交互等功能,广泛应用于客服、写作辅助、代码生成等领域。开发内容包括需求分析、Prompt 设计、模型选择与集成、服务架构设计、安全合规处理、数据采集与微调以及性能优化。常见的开发方法包括 API 调用、本地部署、混合模式和模型微调,适用于不同场景。开发步骤包括需求分析、模型选型、Prompt 设计、系统架构搭建、安全处理、部署与运维以及持续迭代。常用工具和框原创 2025-05-18 06:53:30 · 825 阅读 · 0 评论 -
AI开发中的Token:从基础到优化全解析
在AI应用开发中,token是大语言模型(LLM)处理文本的基本单位,可以是单词、标点符号或子词。**分词器(Tokenizer)**将文本转换为token,常见分词方式包括基于单词、字符和子词(如BPE、WordPiece)。token在AI应用中用于输入处理、输出生成、长度限制控制和性能与成本评估。不同模型(如GPT-3、GPT-4、Llama、BERT)在token处理上存在差异,包括分词器类型、词表大小和最大上下文长度。API调用通常按token数量计费,优化策略包括减少输入token、控制上下文长原创 2025-05-16 23:30:15 · 1532 阅读 · 0 评论 -
提示词工程:AI交互的核心技术与未来趋势
提示词(Prompt)是用户或开发者输入给AI模型的文本,用于引导模型生成特定内容或执行任务。高质量的提示词通常包含指令、上下文、示例、限制条件和角色设定,能够控制模型输出的质量和准确性,提升其在特定任务上的表现。提示词工程师是新兴职业,负责设计、优化和维护提示词系统,主要职责包括提示词设计、效果调优、任务适配、知识融合、自动化构建、评估分析和协同开发。提示词工程在智能客服、内容生成、代码辅助、教育辅导、金融风控、医疗咨询和多语言翻译等场景中广泛应用。提示词类型包括基础指令型、上下文增强型、角色扮演型、示例原创 2025-05-16 23:22:32 · 1029 阅读 · 0 评论 -
AI模型与产品:从引擎到汽车的智能进化
AI模型与AI产品是人工智能领域的两个核心概念。AI模型是通过算法训练得到的数学结构,能够对输入数据进行推理、预测或生成,通常以代码和参数形式存在,面向开发者和技术人员使用,如GPT-3、BERT等。AI产品则是基于AI模型开发的面向终端用户的应用程序或服务,封装了多个模块,提供友好的交互界面,如ChatGPT、Midjourney等。两者的核心区别在于使用对象、技术形态、易用性和功能范围等方面。模型更灵活但门槛高,产品更易用但定制性弱。未来趋势包括更多模型以开源或API形式开放,产品更加智能化、个性化、跨原创 2025-05-16 23:16:14 · 727 阅读 · 0 评论 -
大语言模型(Larg Language Model简称LLM):AI时代的语言革命
应用场景实现内容典型应用案例智能客服自动问答、意图识别、多轮对话京东客服、招商银行AI助手内容创作文案生成、风格建议、润色Jasper、Copy.ai、通义万相教育辅导问题解答、题目生成、个性化学习英语学习APP、AI家教代码生成自然语言转代码、代码补全、错误修复GitHub Copilot、通义灵码搜索与信息抽取语义搜索、关键词提取、文档结构化百度搜索、企业知识管理系统聊天机器人对话交互、语音助手Siri、小爱同学、通义听悟法律与医疗。原创 2025-05-16 23:09:51 · 896 阅读 · 0 评论 -
人工智能:从专家系统到通用AI的演进
人工智能(AI)是计算机科学的分支,旨在开发能够执行人类智能任务的系统,如学习、推理、感知和决策。其核心概念包括智能体、学习能力、推理与决策、感知、自然语言处理和自主性。AI的发展方向涵盖专家系统、机器学习、深度学习、自然语言处理、计算机视觉、强化学习、生成式AI、多模态AI和通用人工智能(AGI)。每个方向都有其独特的技术特点和应用场景,如专家系统在医疗诊断中的应用,深度学习在图像识别中的突破,以及生成式AI在文本和图像生成中的创新。AI的发展历程从1950年代的符号主义到2020年代的大模型和生成式AI原创 2025-05-16 22:46:21 · 685 阅读 · 0 评论 -
神经网络全解析:从基础到前沿应用
神经网络是受生物神经系统启发的计算模型,用于模拟人脑处理信息的方式。其核心组成包括神经元、激活函数、层、权重与偏置、损失函数和优化器。常见的神经网络类型包括前馈神经网络(FNN)、卷积神经网络(CNN)、循环神经网络(RNN)、长短期记忆网络(LSTM)、门控循环单元(GRU)、自编码器(AE)、变分自编码器(VAE)、生成对抗网络(GAN)、图神经网络(GNN)和Transformer。这些网络在数据类型、记忆能力、并行性、参数数量、训练难度和应用场景上各有特点。选择神经网络时需考虑数据类型、任务性质、时原创 2025-05-16 22:42:04 · 548 阅读 · 0 评论 -
机器学习方法全解析:从监督到自监督
机器学习是人工智能的重要分支,旨在通过数据让计算机自动学习规律并进行预测或决策,而无需明确编程指令。其核心概念包括模型、训练、预测和泛化能力。机器学习方法主要分为监督学习、无监督学习、半监督学习、强化学习和自监督学习。监督学习需要带标签数据,适用于分类和回归任务;无监督学习无需标签,用于聚类和降维;半监督学习结合少量标签和大量无标签数据;强化学习通过环境交互学习策略;自监督学习则通过预训练任务生成伪标签。不同方法在数据需求、任务类型和应用场景上各有特点。随着大模型和多模态融合的发展,自监督学习和强化学习在自原创 2025-05-16 22:33:54 · 523 阅读 · 0 评论 -
AI大模型开发:从基础到高级的成长指南
AI大模型应用开发工程师的成长路径分为基础、进阶和高级三个阶段。在基础阶段,工程师需掌握Python编程、机器学习与深度学习基础,以及数学知识,并熟练使用NumPy、Pandas、PyTorch/TensorFlow等工具,同时具备Git协作和文档编写能力。进阶阶段要求理解NLP、预训练模型、模型部署等技术,掌握Transformers、FastAPI、Docker等框架,并能够进行多模块集成和CI/CD实践。高级阶段则聚焦于大模型训练、Prompt工程、性能优化和MLOps,熟练使用DeepSpeed、L原创 2025-05-16 22:16:03 · 1120 阅读 · 0 评论 -
Dify学习指南:从入门到精通:与 Dify 相关的书籍或学习资料推荐
本文推荐了五篇与 Dify 相关的学习资料,涵盖了从入门到进阶的多个方面。内容包括如何使用 Dify 构建翻译工作流、Dify 的应用类型详解、大模型配置与集成、Dify 与 FastGPT 的对比分析,以及本地知识库的部署经验。这些资源适合不同层次的用户,无论是希望进行自动化任务的初学者,还是需要深入技术集成的开发者,都能从中找到实用的指导和参考。通过这些资料,用户可以更好地理解和使用 Dify,提升在 AI 应用开发中的实践能力。原创 2025-05-16 09:37:29 · 519 阅读 · 0 评论 -
Ollama与vLLM:本地部署与高性能推理的终极对比
Ollama 和 vLLM 是两个用于运行大型语言模型的工具,各有其特点和适用场景。Ollama 以其易用性和跨平台兼容性著称,适合个人开发者和教育用途,提供简单的命令行接口和 REST API,支持多种主流模型,且所有计算在本地执行,保护隐私。vLLM 则专注于高性能推理,特别适合生产环境,通过 PagedAttention 技术提升吞吐量和延迟表现,支持多 GPU 并行推理,适合高并发请求处理的服务端应用。两者在部署难度、API 支持、性能优化、多 GPU 支持、长文本处理、扩展性、适用场景和社区维护等原创 2025-05-16 09:34:13 · 624 阅读 · 0 评论 -
Spring AI vs LangChain4j:AI集成最佳选择
Spring AI 和 LangChain4j 是两个为 Java 开发者设计的框架,旨在简化人工智能功能的集成。Spring AI 由 Spring 官方提供,强调与 Spring 生态系统的无缝集成,采用 POJO 优先原则和声明式编程,适合快速开发和稳定性的企业级应用。LangChain4j 则提供更高的灵活性,支持 Spring 和 Java 原生写法,采用分层架构,适合需要高度定制化的项目。选择哪个框架取决于项目需求、技术栈和长期维护考虑。Spring AI 适合追求简便性和稳定性的开发者,而 L原创 2025-05-16 09:27:13 · 628 阅读 · 0 评论 -
AI开发工具全解析:从训练到部署
当前主流的AI开发工具涵盖了模型训练、推理部署、代码辅助、应用构建、数据处理等多个方向。在模型训练与微调方面,Hugging Face Transformers和DeepSpeed是常用工具,分别提供预训练模型和大规模模型训练优化。推理与部署工具如vLLM和TensorRT-LLM则专注于高性能推理。AI应用构建平台如Dify和LangChain支持可视化编排和模块化开发。代码辅助工具如GitHub Copilot和Cursor提供智能代码补全功能。数据标注与管理工具如Label Studio和CVAT则专原创 2025-05-16 08:38:52 · 1082 阅读 · 0 评论 -
开源大模型开发平台全解析与对比
本文详细解析了五款开源大模型应用开发平台:Dify、MaxKB、FastGPT、Llama3/Hugging Face Transformers 和 LangChain。Dify 提供可视化流程编排和模块化组件,适合快速构建 LLM 应用;MaxKB 专注于知识库问答,适合企业内部知识管理;FastGPT 优化 GPT 模型推理,适合高性能需求场景;Llama3 和 Hugging Face 提供全流程工具,适合科研和模型定制;LangChain 强调模块化和扩展性,适合构建复杂 AI Agent。文章还通原创 2025-05-16 08:35:22 · 1049 阅读 · 0 评论 -
向量数据库(Vector Database)是专为存储和高效查询高维向量数据而设计的数据库系统,广泛应用于推荐系统、图像检索、语义搜索、RAG等 AI 场景
向量数据库(Vector Database)是专为存储和高效查询高维向量数据而设计的数据库系统,广泛应用于推荐系统、图像检索、语义搜索、RAG等 AI 场景原创 2025-05-08 15:32:53 · 816 阅读 · 0 评论 -
在构建基于大模型的 AI 应用时,RAG、向量数据库、智能体(Agent) 是几个关键的技术概念和组件,结合 Ollama 和 LangChain4j技术栈,详细说明它们的工作原理、区别及如何协同使用
在构建基于大模型的 AI 应用时,RAG、向量数据库、智能体(Agent) 是几个关键的技术概念和组件,结合 Ollama 和 LangChain4j技术栈,详细说明它们的工作原理、区别及如何协同使用原创 2025-05-08 14:33:37 · 1199 阅读 · 1 评论 -
Ollama 是一个本地部署大型语言模型(LLM)的开源工具,它支持多种主流的大模型,并持续更新对新模型的支持。用户可以通过 Ollama Model Library 查看所有当前支持的模型
Ollama 是一个本地部署大型语言模型(LLM)的开源工具,它支持多种主流的大模型,并持续更新对新模型的支持。用户可以通过 Ollama Model Library 查看所有当前支持的模型原创 2025-05-08 14:16:00 · 1977 阅读 · 0 评论 -
Ollama 是一个用于本地部署和运行大型 AI 模型的工具,它简化了模型的加载、运行和管理过程。以下是 Ollama 的常用命令及其详细解释,并在最后以表格形式整理
Ollama 是一个用于本地部署和运行大型 AI 模型的工具,它简化了模型的加载、运行和管理过程。以下是 Ollama 的常用命令及其详细解释,并在最后以表格形式整理原创 2025-05-08 14:06:57 · 379 阅读 · 0 评论 -
基于 Ollama 搭建本地大语言模型(LLM)服务,并通过 Java + Spring Boot + Vue + Spring Cloud 实现完整前后端交互的完整示例项目结构和代码说明
基于 Ollama 搭建本地大语言模型(LLM)服务,并通过 Java + Spring Boot + Vue + Spring Cloud 实现完整前后端交互的完整示例项目结构和代码说明原创 2025-05-08 11:29:31 · 1093 阅读 · 0 评论 -
目前全球范围内较为知名的 AI 模型开放平台,它们提供了模型托管、推理服务、训练支持、数据集共享、社区协作等功能。广泛应用于自然语言处理(NLP)、计算机视觉(CV)、语音识别、强化学习等领域
目前全球范围内较为知名的 AI 模型开放平台,它们提供了模型托管、推理服务、训练支持、数据集共享、社区协作等功能。广泛应用于自然语言处理(NLP)、计算机视觉(CV)、语音识别、强化学习等领域原创 2025-05-08 11:24:56 · 1506 阅读 · 0 评论 -
主流的开源本地大语言模型运行框架(LLM Inference Frameworks)详细对比
主流的开源本地大语言模型运行框架(LLM Inference Frameworks)详细对比原创 2025-05-08 11:12:46 · 970 阅读 · 0 评论 -
AI 大模型的主流的大模型架构分类
AI 大模型的模型架构是决定其性能、训练效率和应用场景的关键因素。根据近年来的发展,主流的大模型架构主要包括以下几类:原创 2025-05-08 09:21:40 · 1471 阅读 · 0 评论 -
AI 大模型的训练过程中,涉及多种关键技术。这些技术通常分为预训练阶段和后训练(Post-training)阶段,每个阶段使用不同的训练方法来提升模型的语言理解、推理能力和领域适应性
AI 大模型的训练过程中,涉及多种关键技术。这些技术通常分为预训练阶段和后训练(Post-training)阶段,每个阶段使用不同的训练方法来提升模型的语言理解、推理能力和领域适应性原创 2025-05-08 09:17:26 · 791 阅读 · 0 评论 -
DeepSeek-R1 和 DeepSeek-V3 的详细对比
DeepSeek-R1 和 DeepSeek-V3 的详细对比原创 2025-05-08 09:11:04 · 989 阅读 · 0 评论 -
OpenAiChatModel 是 langchain4j 提供的用于与 OpenAI 风格的 API 交互的类,它支持多种参数配置
OpenAiChatModel 是 langchain4j 提供的用于与 OpenAI 风格的 API 交互的类,它支持多种参数配置原创 2025-05-08 08:55:38 · 1270 阅读 · 0 评论 -
langcha4j实现一个问答助手,包含完整代码
langcha4j实现一个问答助手,包含完整代码原创 2025-05-07 17:49:21 · 224 阅读 · 0 评论 -
在 langchain4j 中,ChatLanguageModel 和 StreamingChatLanguageModel 是两个用于与语言模型交互的核心,它们的主要区别在于响应的获取方式和使用场景
在 langchain4j 中,ChatLanguageModel 和 StreamingChatLanguageModel 是两个用于与语言模型交互的核心,它们的主要区别在于响应的获取方式和使用场景原创 2025-05-07 17:16:28 · 705 阅读 · 0 评论 -
Quarkus 和 Spring Boot 都是流行的 Java/Kotlin 开发框架,它们在构建基于 LangChain4j 的 AI 应用程序时有一些显著的差异
Quarkus 和 Spring Boot 都是流行的 Java/Kotlin 开发框架,它们在构建基于 LangChain4j 的 AI 应用程序时有一些显著的差异原创 2025-05-07 17:01:01 · 691 阅读 · 0 评论