用1天时间开发了一款AI搜索助手!大量的token消耗把我劝退!分享一些经验心得!

AI搜索引擎的挑战:深度个性化与Token成本,
本文讲述了作者开发AI搜索引擎助手Miku时遇到的挑战,特别是Token消耗问题。LLM+搜索强调事物对象级别搜索,有望取代传统搜索引擎,但高昂的Token成本限制了发展。文章还探讨了如何通过深度理解和个性化来提升搜索质量和价值,以及在商业应用中的复杂工作流程和个性化需求。

这个月早初的时候,我花了1天时间开发了一款AI搜索引擎助手Miku,刚开发完因为token的大量消耗成功把我劝退。但不可否认的是,AI搜索引擎即将颠覆传统的搜索引擎,而且这个趋势已经到来。

图片

本篇文章我将和你分享开发这个产品过程中的一些经验。

搜索的核心:事物对象级别的搜索

回到搜索引擎本身,搜索引擎的早期出现是为了解决互联网上信息过载的问题。随着互联网的快速发展,越来越多的网页被创建并发布,用户需要一种有效的方式来找到他们感兴趣的信息。

因此,搜索引擎的出现提供了一种更便捷、更高效的方式来检索互联网上的信息。

但是,搜索的本质在于以最少的信息输入,获取到最精准的结果。用户希望直接搜索最终的答案,例如用户问:“AI搜索引擎有哪些?”,希望得到对事物的精准描述——BingAI、Monica...,而非返回很多页面,让用户自己从众多页面中寻找正确答案。

图片

而传统搜索引擎只能返回很多相关页面,用户需要从海量文本中自行寻找答案,即所谓字符串级别的搜索。

图片

而llm+搜索即所谓事物对象级别的搜索,会对用户的语义进行解析,过滤掉网页返回当中无关的内容,并总结摘要精准返回给用户。

基于搜索的核心,llm+搜索必将取代传统搜索引擎。现在市场上也越来越多相关产品了,如monica,秘塔,perplexity,walles AI,thinkany等。

图片

每一次搜索背后烧的是大量的Token

图片

每一次搜索首先需要通过相关的搜索API返回相关文本内容,返回抽取的内容可以有标题、摘要、来源和对应的链接。

由于仅仅通过标题和摘要扔给大模型来解析是远远不够的,因为这些内容通常包含的信息不够全面,往往输出的搜索质量也不高。

于是需要获取每一个返回链接具体页面内的详细内容,并过滤掉无关的html,保留主要的文本内容,在将这些文本合并+prompt+用户输入问题暴力扔给大模型。当然其中为了提高搜索结果的质量,也可以采取相关的RAG策略进行检索,比如相似度匹配和知识简谱等。无论如何,这样每一次搜索都需要消耗大量的Token。

我简单几次测试下来,如果采样在8条搜索结果的情况下,平均每一次消耗的token大概在2-3万token,甚至有一次消耗接近5万token。

图片

参考openai的官方价格,1万token为0.1美元,折算下来一次搜索的成本在1.4-2.1元,差不多一瓶矿泉水的价格。假设一天有10000人使用,每人只搜索一次,平均一次2万token,也得2亿token,折合人民币也得2.4万一天,这对于初创企业来说是不太友好的,因此也不得不被劝退。

AI搜索:如何真正做到深度和个性化?

如果采取付费的话,而仅仅只通过搜索引擎的信息源是不足以让用户埋单的。搜索引擎的内容本身就具有延迟性,而且也不能保证每一条都是高质量而全面的信息。

除非是真的可以达到高质量的个性化结果的输出。而这样的差异优势将更多来自于信息源的差异优势和对用户意图和知识的深度理解和个性化。就像黄仁勋说的信息处理的方式将从根本上发生变化,计算的未来将高度依赖生成而非检索。

比如用户将一个复杂的任务用简单的指令输入,如何识别用户的意图,并做任务流的拆解,分发不同的Agent进行实现。

这两天我在开发一个商业计划书生成器,通过用户的公司、产品、团队介绍等简单的基础信息生成一份商业计划书。

图片

这里面会涉及到复杂的工作流,多角色扮演的Agent,一起交流讨论,分工合作,各负责哪个板块;用相关商业计划书编写书籍充当知识库做RAG;通过搜索引擎获取市场相关数据。其中如何做到深度和个性化也是整个工程的难点。

相信未来AI搜索不再只是处理简单的任务流,而是让搜索真正做到深度和个性化输出。特别是在垂类领域的搜索将变得更加有个性化这类的 而且空间很大!

欢迎感兴趣的朋友联系我

加入rag+agent探索群一起交流

<think> 嗯,用户询问的是AI编程中token消耗大的原因及token的作用。这个问题很实际,因为token消耗直接关系到使用成本。从之前的引用来看,用户可能已经了解到token消耗带来的经济压力,比如引用[2]提到开发者因为token消耗过大而被劝退token的作用可以从技术层面解释。它是AI模型处理文本的基本单位,把文字拆分成词或字块,就像人类阅读时自然划分词语那样。比如"人工智能"可能被拆成"人工"和"智能"两个token。这种拆分方式会影响模型理解输入的效率。 至于消耗量大的原因,需要分几个方面来看。首先是输入输出量,比如让模型生成几百行代码,或者分析整个项目文件,自然需要更多token。其次是任务复杂度,调试代码或优化算法这类需要深度思考的任务,模型必须"想"得更久,消耗更多计算资源。最后是模型特性,高级模型虽然能力强,但通常设计得更复杂,单次处理的token量也更大。 用户可能是开发者或技术决策者,关心成本效益。ta可能正在评估是否值得投入AI编程工具,或者遇到token消耗超出预算的问题。除了解释原因,或许还需要补充些优化建议,比如精简输入、设置输出长度限制等实用技巧。 之前引用里提到1000万token免费领取的活动,这对用户可能是个有用的信息,可以减轻初期成本压力。不过要注意别让回复变成促销广告,重点还是解答技术疑问。 </think> 在AI编程中使用大语言模型时,**Token消耗量大的核心原因在于模型处理信息的机制**,而**Token的作用是作为模型处理文本的基本计算单位**。以下是详细分析: --- ### 一、Token的作用 1. **文本处理的基本单元** Token是模型处理文本的最小单位。例如: - 英文单词 `"apple"` = 1token - 中文短语 `"人工智能"` 可能被拆分为 `["人工", "智能"]` = 2个tokens - 标点符号、空格等也会占用token(如`"."` = 1 token) 模型通过token序列理解输入并生成输出[^1]。 2. **计算成本的直接依据** 模型对每个token执行数学运算(如矩阵乘法),因此: - **输入+输出总token数**决定单次调用的计算量 - **费用计算**:例如OpenAI定价$0.06/万tokens(输入) + $0.18/万tokens(输出)[^2] --- ### 二、Token消耗量大的原因 #### 1. **输入规模膨胀** - **代码文件分析**:提交整个项目时,一个数千行的代码文件可能消耗**5万+ tokens** *例:分析一个Python脚本需先将其全部token化* - **上下文依赖**:为理解代码逻辑,需提供相关模块、文档等,导致输入增长 #### 2. **输出内容复杂** - **代码生成**:生成100行代码 ≈ **200-500 tokens**(视语言和注释密度) - **调试建议**:模型返回错误分析+修改方案可能达**300-800 tokens** #### 3. **任务复杂度高** ```mermaid graph LR A[简单任务] -->|单次交互| B(50-200 tokens) C[复杂任务] -->|多轮迭代| D(交互流程) D --> E{循环过程} E -->|1. 提交代码| F[模型分析] E -->|2. 返回错误| G[用户补充信息] E -->|3. 重新生成| H[新增输出] ``` 一次调试可能涉及**5-10轮交互**,累计消耗数万tokens[^2]。 #### 4. **模型机制特性** - **长上下文模型**(如GPT-4-128K)虽支持大输入,但处理长文本本身消耗高 - **精细任务**(如性能优化)需模型深度"思考",增加内部计算步骤 --- ### 三、典型案例对比 | 任务类型 | 输入token | 输出token | 总消耗 | 成本估算(¥) | |-------------------|-----------|-----------|---------|----------------| | 生成简单函数 | 200 | 150 | 350 | ≈0.03 | | 调试代码错误 | 3000 | 800 | 3800 | ≈0.34 | | 重构项目模块 | 25000 | 5000 | 30000 | ≈2.7 | | 每日1万人使用 | - | - | 2亿+ | ≈24,000 | > *注:成本按OpenAI API价格估算 ($0.03/千token),参考[^2]* --- ### 四、优化建议 1. **精简输入**: - 避免提交无关代码,用注释聚焦关键段落 - 使用`# TODO`标注需修改的代码块 2. **限制输出**: - 设置`max_tokens`参数(如限制为500) - 要求"用最简代码回答" 3. **分步处理**: 将大任务拆解为小步骤,减少单次交互量 4. **本地预处理**: 用正则表达式/静态分析工具预先过滤问题 > 💡 **免费资源提示**:国内平台如[DeepSeek](https://platform.deepseek.com/)等提供百万级免费tokens,适合初期试用[^1]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值