一支烟一朵花
这个作者很懒,什么都没留下…
展开
-
群聊即播客!基于群聊信息结合大模型能力生成智能播客内容的架构设计与技术实现
所以呢,设计的系统旨在实现以下核心功能:实时捕获和处理微信群聊信息利用向量数据库进行高效的相似度搜索结合 Kimi 大模型 API 实现智能内容生成通过 RAG(检索增强生成)技术提升内容质量生成自然、富有表现力的语音播客我解释一下这个架构图的主要组件和数据流:微信群发送消息到 API 网关。API 网关将消息分发到消息处理服务。2a. 消息处理服务与 Redis 缓存交互,进行消息去重和临时存储。消息处理服务将处理后的消息向量化,并存入向量数据库(Milvus)。原创 2024-10-19 09:40:35 · 407 阅读 · 0 评论 -
马斯克押宝特朗普连任后的AI技术新格局猜想
马斯克助力特朗普连任后的AI技术格局,呈现出深度整合、跨领域创新、国际竞争加剧的特点。既抱着期待的心情希望AI的发展越来越好,同时作为老美最大的竞争者,咱们也得咬牙跟进。不过我想咱们的国家队也会大力扶持,新的机会也会慢慢出现。以上内容纯属个人观点,肯定存在主观性,就起个抛砖引玉的效果,原创 2024-11-07 10:39:29 · 108 阅读 · 0 评论 -
DSPy101
DSPy 介绍DSPy(Declarative Self-improved Language Programs in Python) 是一个用于系统化和增强在流水线内使用语言模型的框架,它通过数据驱动和意图驱动的系统来优化大型语言模型(LLM)的使用。DSPy 的核心是模块化架构,它提供了一套内置模块,这些模块可以组合成更大的程序,以构建复杂的 AI 系统 。入门 DSPy,你可以遵循以下步骤:安装 DSPy:首先需要安装 DSPy 库,可以通过 Python 的包管理工具 pip 进行安装。配置原创 2024-09-30 15:44:48 · 810 阅读 · 0 评论 -
《黑神话:悟空》的AI技术解析:游戏智能的新境界
从 AI 技术的广泛应用,到对 NVIDIA 先进硬件特性的充分利用,再到虚幻引擎 5 提供的革命性功能,我们可以看到游戏开发正在向着更加智能、逼真和沉浸式的方向发展。在《黑神话:悟空》中,我们可以看到 NPC 展现出丰富的行为模式,如巡逻、对话、战斗等,这很可能是基于高度优化的行为树来实现的。《黑神话:悟空》的最终成功,将取决于开发团队如何巧妙地运用这些技术,将中国传统文化的魅力与现代游戏设计理念完美融合,创造出一种独特的游戏体验。导航网格技术可以帮助 AI 角色规划路径,避开障碍物,实现流畅的移动。原创 2024-08-21 14:22:11 · 2375 阅读 · 0 评论 -
人工智能预测,蔚来汽车大模型,特斯拉自驾,AI反诈
文章来自知名的“科技与商业战略” 博客 Stratechery, 作者是 Stratechery 的创办人 Ben Thompson这篇文章的采访对象,Nat Friedman 和 Daniel Gross 是一对投资二人组,他们很像是 “人工智能时代” 的 Marc Andreessen 和 Ben Horowitz,后者通过创办了 A16Z 在 2008 年之后成为了移动互联网时代硅谷的顶级投资人。原创 2024-05-17 16:37:18 · 967 阅读 · 0 评论 -
大模型 Transformer介绍-Part1
尽管像 LSTM 和 GRU 这样的门控架构通过丢弃在记住重要信息的过程中无用的信息,在处理长期依赖性方面表现出一些性能改进,但这仍然不够。对于神经机器翻译任务,它是对编码器-解码器模型的巨大改进,很快,注意力机制的应用也被推广到其他任务中。在 S2 的情况下,在计算 Z(it) 时,所有重要性都赋予 V(dog),而其余单词的分数为 0.0,包括 V(it)。换句话说,我们可以说,如果当前词是有歧义的,那么在计算自注意力时给予其他词更多的重要性是可以的,但在其他情况下,它可能会对模型产生误导?原创 2023-06-16 17:54:39 · 2438 阅读 · 2 评论 -
开源LLM的创建步骤
创建开源 LLM 可能是一项具有挑战性的任务,但它也是一项令人兴奋的任务。按照上述步骤,你可以创建自己的开源 LLM 并为这个令人兴奋的领域的发展做出贡献。开源 LLM 之所以被称为“开源”,是因为它们的代码是公开的,任何人都可以使用它来创建自己的语言模型。在训练您的 LLM 之后,您可以在较小的数据集上对其进行微调,以提高其在特定任务上的性能。微调涉及在与您希望它执行的任务类似的较小数据集上训练 LLM。创建开源 LLM 可能是一项具有挑战性的任务,但它也是一项令人兴奋的任务。原创 2023-06-16 15:56:58 · 1151 阅读 · 0 评论 -
主流大模型介绍
GPT-3 比 BERT 大得多,并且在 45TB 的数据上进行训练,而 BERT 为 3TB,并且具有 125M 到 175B 的参数,而 BERT 有 3.4 亿个参数。自从 GPT-3 抓住了民粹主义的想象力,涌现的新 LLM 的数量就增加了。LLaMA 基于这样一种信念,即在更多数据上训练的小型模型优于最大模型,并声称 LLaMA-13B 比 GPT-3 小 10 倍,而 LLaMA-65B 与 PaLM-540B 相当。近年来最重要的发展之一是大型语言模型 (LLM) 的出现。原创 2023-06-16 15:41:21 · 1526 阅读 · 0 评论