AI大模型
文章平均质量分 84
runfarther
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
mysql_mcp_server部署及应用案例
本文介绍了在CentOS 7.5系统下安装和部署mysql_mcp_server的完整流程。主要包括三个部分:1)服务安装步骤,包括源码下载、创建独立Python环境及安装依赖包;2)服务配置方法,涉及创建配置文件、设置监听端口和MySQL数据库连接参数;3)服务启动命令。整个过程详细说明了从环境准备到服务运行的全套操作,为在CentOS系统上部署该MySQL管理服务提供了清晰的指导。原创 2025-12-05 18:26:01 · 319 阅读 · 0 评论 -
CentOS7.5下已有Python 2.7时安装python3.10.0
摘要:在CentOS 7.5上安装Python 3.10.0有两种方法:源码编译和Miniconda安装。源码编译适合系统级长期使用,需手动管理路径;Miniconda则便于多版本管理,自带环境隔离功能。两种方法均不影响系统自带的Python 2.7。源码安装需编译依赖并配置环境变量,而Miniconda提供更便捷的环境管理。建议为项目创建虚拟环境隔离依赖。安装后可通过版本命令验证是否成功。原创 2025-12-03 09:39:35 · 876 阅读 · 0 评论 -
Windows下使用源码和Conda搭建GraphRAG指南
本文提供了在Windows环境下使用conda搭建GraphRAG的完整指南。内容包括:创建conda环境、安装系统依赖(CMake、C++工具)、PyTorch安装、克隆源码、Python依赖安装、环境验证方法以及常见问题解决方案。指南还包含基本使用示例和环境检查脚本,并提醒用户注意内存需求、存储空间和API限制等关键事项。通过遵循这些步骤,用户可以在Windows系统中成功配置和运行GraphRAG框架。原创 2025-12-01 09:19:17 · 480 阅读 · 0 评论 -
Windows下部署Dify操作说明
摘要:在Windows上部署Dify推荐使用Docker Compose方法,只需安装Docker Desktop、Git并启用WSL 2,通过git克隆仓库后运行docker compose up -d即可完成部署。也可选择Python直接运行方式,但需手动安装PostgreSQL、Redis等依赖。Docker方式更简单可靠,适合大多数用户,访问localhost即可使用。若遇到问题可检查端口冲突或容器状态,更新时只需git pull后重启容器。原创 2025-11-28 17:42:41 · 335 阅读 · 0 评论 -
Gemin API文档-模型 第9章:速率限制
摘要:Gemini API采用多维速率限制机制,包括每分钟请求数(RPM)、每分钟令牌数(TPM)和每日请求数(RPD),按项目而非API密钥实施。限制根据使用层级(免费/层级1-3)和模型类型而异,如Gemini 2.5 Pro在免费层为2 RPM/125K TPM/50 RPD,层级1提升至150 RPM/2M TPM。升级需满足支出门槛(层级2需>$250)并通过审核。特殊模型如Imagen 3有独立限制(IPM),实验性模型限制更严格。系统旨在保障公平使用和平台稳定性。原创 2025-11-28 10:37:51 · 539 阅读 · 0 评论 -
Gemini API文档-模型 第8章:价格
Gemini API提供三种版本:免费版适合开发人员和小型项目,提供有限访问和免费令牌;付费版为生产应用提供更高限制、批量API和高级模型访问;企业版支持大规模部署,包含专属支持和安全合规功能。Gemini 3 Pro和2.5 Pro模型分别针对多模态理解和复杂推理任务,付费版按令牌数量计费,批量模式可降低成本50%。企业用户还可获得用量折扣和ML运维支持。原创 2025-11-28 10:11:31 · 977 阅读 · 0 评论 -
Gemin API参考-第1章:模型
摘要 Gemini API提供了两种模型操作方法:models.get用于获取特定模型的详细信息(如版本号、令牌限制等),models.list用于列出所有可用模型及其功能(如generateContent或embedContent支持)。两种方法均通过REST端点调用,支持Python、Go和Shell等多种语言实现。响应包含模型元数据或分页列表,可通过pageToken参数实现分页查询。开发者可参考提供的代码示例快速集成API功能。原创 2025-11-23 11:19:22 · 633 阅读 · 0 评论 -
2025年全球AI发展报告
2025年全球AI发展呈现三大趋势:Meta发布12万亿参数的Llama 3.0,推动开源生态突破,支持150+语言交互;Google Gemini Pro 2.0实现跨模态融合,医疗与自动驾驶场景准确率显著提升;行业垂直化LLMs爆发,金融FinGPT预测误差降低25%,医疗DermGPT皮肤癌识别率达98%。同时欧盟实施《通用AI法案》,加强全球AI监管。原创 2025-11-17 11:00:13 · 839 阅读 · 0 评论 -
主流开源的Agentic AI分析、比较与选型
摘要:Agentic AI领域涌现出多个优秀开源项目,包括AutoGPT(概念验证)、LangGraph/LangChain(状态工作流)、Microsoft AutoGen(多智能体对话)和CrewAI(角色协作)。这些项目在架构抽象与控制粒度上各具特色:CrewAI适合角色分工明确的团队协作,AutoGen擅长智能体对话决策,LangGraph提供最灵活的工作流控制,而AutoGPT主要具有教育意义。当前CrewAI、AutoGen和LangGraph都已达到生产就绪水平,开发者可根据具体需求选择——快原创 2025-11-14 17:39:08 · 1066 阅读 · 0 评论 -
Agentic AI与Agentic RAG的区别与关系
Agentic AI(智能体AI)是一种能够自主感知、规划与执行任务的AI系统架构,而Agentic RAG(智能体化RAG)则是该架构在检索增强生成任务上的具体应用。Agentic AI具备自主性、工具使用和动态规划等能力,适用于广泛场景;而Agentic RAG通过多步检索、信息验证和动态优化,显著提升了传统RAG在复杂问答中的表现。两者关系可概括为:Agentic RAG是Agentic AI范式在知识密集型任务中的专业化实现,代表了下一代AI系统的核心发展方向。原创 2025-11-14 15:29:08 · 860 阅读 · 0 评论 -
如何构建多智能体研究系统(multi-agent-research-system)
摘要:Claude研究功能采用多智能体系统架构,由主导智能体协调多个并行工作的子智能体完成复杂研究任务。该系统相比单智能体性能提升90.2%,特别适合广度优先查询。核心优势在于动态调整研究路径、并行化处理和信息压缩能力,但存在计算资源消耗大的缺点。系统通过提示工程优化智能体协作,包括教导协调委派、根据复杂度调整工作量、优化工具选择等策略。研究发现,有效的研究策略应模仿人类专家方法:先宽泛探索后逐步聚焦,并通过并行工具调用显著提升效率。原创 2025-11-13 16:26:54 · 656 阅读 · 0 评论 -
Windows下安装conda和pip
本文提供了Miniconda在Windows系统的快速安装教程:1)下载安装包并设置环境变量;2)配置清华镜像源提升下载速度;3)通过conda安装pip工具;4)设置阿里云等国内pip镜像源。教程包含详细路径和命令行操作,并提供了多种镜像源选择,帮助用户快速搭建Python开发环境。验证步骤确保各环节正确安装配置。原创 2025-11-11 10:39:03 · 362 阅读 · 0 评论 -
低秩与稀疏矩阵核心区别与应用场景
本文探讨了数据科学中"低秩"和"稀疏"两个核心概念的区别与联系。稀疏性关注矩阵中零元素的分布,适用于存储优化和高效计算,常见于文档-词项矩阵等场景;低秩性则反映矩阵行/列间的线性相关性,可用于数据压缩和特征提取,在图像处理等领域有广泛应用。二者可独立存在(如单位矩阵稀疏但不低秩),也可协同应用(如鲁棒主成分分析)。理解这些特性有助于根据数据特点选择合适的数据处理方法,实现更高效的数据分析和建模。原创 2025-09-25 12:01:43 · 360 阅读 · 0 评论 -
安装cv2库的详细指南
本文介绍了安装OpenCV-Python(cv2)的三种方法:1.使用pip安装(推荐),可选择基础版(opencv-python)或完整版(opencv-contrib-python);2.使用Conda/Mamba安装;3.源码编译安装(适合高级用户)。安装后可通过导入cv2并打印版本号验证是否成功。文中还针对Windows、macOS和Linux系统提供了注意事项,并建议初学者使用最简单的pip安装方式。最后强调大多数用户只需执行"pip install opencv-python"原创 2025-08-28 16:41:47 · 2051 阅读 · 0 评论 -
Milvus 向量数据库开发实战指南
本文摘要: Milvus向量数据库技术文档详解,涵盖核心概念、操作流程和最佳实践。系统解析了位集、通道机制、数据组织结构等基础概念,详细介绍了向量索引类型和预处理方法。提供Java客户端连接配置、集合管理(创建、检查、统计)的代码示例,包含数据操作(生成、插入)和索引管理实现。文档还展示了混合搜索、条件查询等核心功能的使用方法,并给出性能优化建议(索引选择、内存管理)和错误处理机制。最后通过完整工作流示例演示基础操作,包括Maven依赖配置和连接管理建议,为开发者提供全面的Milvus集成参考方案。原创 2025-08-28 14:49:19 · 1146 阅读 · 0 评论 -
Milvus向量数据库是什么?
Milvus是一款开源向量数据库,专为高效存储、索引和检索海量向量数据而设计。它通过近似最近邻搜索(ANNS)技术,能在毫秒级别从十亿级向量中快速找到相似结果。相比传统数据库,Milvus具有高性能、可扩展性强、支持混合查询等优势,适用于图像搜索、推荐系统、智能问答等AI应用场景。其核心架构采用读写分离设计,包含接入节点、协调节点和工作节点等组件,支持分布式部署和云原生特性。作为AI基础设施,Milvus为处理非结构化数据提供了专业解决方案。原创 2025-08-28 14:33:14 · 1055 阅读 · 0 评论 -
MinerU是什么?
MinerU是一款智能PDF数据转换工具,能高效提取非结构化PDF内容并转换为计算机可读的结构化数据。它支持表格提取、OCR识别(84种语言)、文档结构保留、批量处理等功能,可将PDF转换为Excel、JSON、XML等多种格式。核心价值在于解决PDF数据难以批量处理和分析的问题,适用于金融、法律、研究等多个领域,是文档处理自动化的重要工具,兼容多平台并支持硬件加速。原创 2025-08-26 11:50:13 · 1145 阅读 · 0 评论 -
MinerU的安装
MinerU是一款将PDF转化为机器可读格式的工具(如markdown、json),可以很方便地抽取为任意格式,本文对MinerU的安装进行说明。原创 2025-08-26 11:39:39 · 720 阅读 · 0 评论 -
EasyDatasets是什么?
EasyDatasets是什么?简单来说,EasyDatasets 是一个用于简化数据集加载和处理的 Python 库。它的核心目标是让开发者,尤其是机器学习初学者和研究人员,能够用极其简单的一行代码来获取和加载常用的公开数据集。您可以把它想象成一个非常方便的工具箱,里面装满了整理好的、立即可用的数据集,省去了您自己从原始网站下载、解压、解析文件、进行数据预处理的繁琐步骤。原创 2025-08-26 09:36:59 · 614 阅读 · 0 评论 -
easy-dataset的安装
构建高质量的微调数据集是提升模型性能的关键一步。LLaMA-Factory 官方推荐了 Easy Dataset 和 GraphGen 两款工具。其中,Easy Dataset是一款由国内开发者构建的 LLM 数据生成工具,它通过 LLM 生成问答对来构建数据集。相比之下,GraphGen 则结合了 LLM 和知识图谱。在实际应用中,Easy Dataset 的便捷性和良好的社区支持使其成为更优选择。考虑到 Easy Dataset 的本土化优势及其日益活跃的社区生态,我们选择 Easy Dataset 作原创 2025-08-25 17:23:26 · 979 阅读 · 0 评论 -
搭建LLaMA-Factory环境
或者直接点击【】下载源代码。原创 2025-08-20 11:15:03 · 748 阅读 · 0 评论 -
uv与conda的区别及选择指南
都是 Python 的包管理和环境管理工具,但它们在设计理念、性能和使用场景上有显著区别。:由 Astral 团队(Rust 驱动工具链)开发,专注提升 Python 包安装速度(类似。:不仅管理 Python 包,还能处理非 Python 依赖(如 C/C++ 库、系统工具)。项目是纯 Python 或简单依赖(如 Web 开发、脚本工具)。:不管理非 Python 依赖,更专注于纯 Python 生态。直接安装,或者使用官方推荐的安装脚本。根据项目需求选择合适的工具,或组合使用它们的长处。原创 2025-08-19 11:11:03 · 2004 阅读 · 0 评论 -
Ollama是什么?
Ollama 是一个大语言模型管理工具(开源项目),专注于在上运行、部署和管理大型语言模型(LLMs)。它的目标是让用户能够轻松地在自己的设备(如个人电脑或服务器)上运行各种开源大模型(如 LLaMA、Mistral、Gemma 等),而无需依赖云端服务。原创 2025-08-08 11:58:01 · 650 阅读 · 0 评论 -
llama.cpp是什么?
系列大语言模型(如 LLaMA-1/2、Alpaca 等)。它通过优化计算和内存管理,使得即使在没有高端 GPU 的普通电脑(甚至树莓派、手机等嵌入式设备)上也能运行大模型。(如 GGUF 格式),显著降低模型体积和内存占用(例如 7B 模型可压缩到 ~4GB)。支持多核 CPU、部分 GPU(通过 CUDA、Metal 或 Vulkan 后端)加速。支持多种 LLaMA 衍生模型(如 Alpaca、Vicuna、WizardLM 等)。),社区活跃,衍生出许多工具(如 Web 界面、绑定库等)。原创 2025-08-08 11:27:14 · 1054 阅读 · 0 评论 -
LLamafactory是什么?
LLamaFactory是一个专注于大型语言模型(LLM)训练、微调和部署的开源工具平台,旨在简化大模型的应用开发流程原创 2025-08-06 17:18:19 · 435 阅读 · 0 评论 -
使用conda安装modelscope
conda modelscope AI 大模型原创 2025-08-06 10:45:24 · 421 阅读 · 0 评论
分享