
AI前线
文章平均质量分 77
轻口味
十年的工作经验,精通C、C++、Python、JAVA、JS、GO等多种编程语言,擅长音视频、即时通讯、人工智能等领域的技术实现与系统设计。在音视频技术、实时通讯系统、AI算法等方面有深入的研究与实践,参与过多个大规模项目的开发与优化。欢迎合作与交流,私信我一起探讨技术发展与项目经验!
展开
-
DeepSeek开源新模型,华为AI芯片量产,干翻英伟达节奏
DeepSeek-Prover-V2的核心创新在于其递归定理证明冷启动框架子目标分解:借助DeepSeek-V3大模型(671B参数)将复杂数学定理转化为层次化证明草图,并自动生成Lean 4形式化代码;分层求解:通过7B参数轻量化模型处理子目标证明,显著降低计算成本,同时保留DeepSeek-V3的思维链推理逻辑;数据闭环:将已验证的子目标证明与原始推理过程结合,构建强化学习训练数据集,最终训练出具备端到端验证能力的DeepSeek-Prover-V2-671B模型。原创 2025-05-01 09:02:45 · 1119 阅读 · 0 评论 -
给AI装上“万能双手”的协议,小白也能玩转智能工具-一文搞懂MCP
首先我们看看MCP的官方架构图:MCP Hosts: Hosts 是指 LLM 启动连接的应用程序,像 Cursor, Claude Desktop、Cline 这样的应用程序。MCP Clients: 客户端是用来在 Hosts 应用程序内维护与 Server 之间 1:1 连接,可以理解为是Host的一部分。MCP Servers: 通过标准化的协议,为 Client 端提供上下文、工具和提示。Local Data Sources: 本地的文件、数据库和 API。原创 2025-04-09 17:46:31 · 1902 阅读 · 19 评论 -
AI前线:QWQ-32B模型部署攻略
模型数学代码等核心指标(AIME 24/25、livecodebench)以及部分通用指标(IFEval、LiveBench等)达到DeepSeek-R1 满血版水平,各指标均显著超过同样基于 Qwen2.5-32B 的 DeepSeek-R1-Distill-Qwen-32B。QwQ-32B是中型推理模型,能够与最先进的推理模型(如DeepSeek-R1, 01 -mini)竞争。本地部署qwq-32b建议的配置:CPU 16核以上,内存64GB+,硬盘30GB+,显卡24GB+显存。原创 2025-03-07 10:17:42 · 1200 阅读 · 0 评论 -
AI前线:Manus信息汇总
整体看下来就是我们之前介绍的飞书多维表格制作工作流的升级版,很多手动的东西都帮我们自动完成了,是个不错的创意,但是整体看下来壁垒很小,估计很快就有其他公司跟进了。写小红书广告:https://manus.im/share/6vU5tFhNJNznVrm7lNncan?多语言官网:https://manus.im/share/yOycR2NvksUBL62QbcKyIT?短视频文案:https://manus.im/share/Dgt7phHdZnEGpyTAgt6QLE?√ KV Cache动态优化引擎。原创 2025-03-07 00:26:00 · 270 阅读 · 0 评论