- 博客(79)
- 资源 (2)
- 收藏
- 关注
原创 deepseek_v3_base和deepseek_r1_zero和deepseek_r1
deepseek_v3_base和deepseek_r1_zero和deepseek_r1简述
2025-02-25 22:23:09
946
原创 AI手机的技术细节
前序:先说各个功能涉及到的技术,再说宏观系统架构。AI手机有这样几个做法,给手机侧边增加一个按键;把手机的语音助手做的很好,能够快速稳定的进行唤醒;通过特殊形式的触摸手机的曲面屏位置等来进行唤醒AI。
2025-02-24 17:38:19
1126
原创 指令微调模型中的ppl困惑度指标
在得到指令微调大模型后,需要对模型进行评测,一般分为ppl困惑度评测(从理解上说:ppl是一种用来评价语言模型好坏的指标,生成正确的文本概率越高,就认为模型的困惑度越小,模型也就越好。从数学概念上说:ppl是测试文本中每个token预测概率的几何平均数的倒数)、长序列(如:大海捞针)评测。这篇文章主要说明下对ppl的理解
2025-02-10 15:40:20
998
原创 政务大模型的一些知识点
需求调研:通过访谈、问卷调查、用户故事等方式收集和分析需求。需求文档:编写详细的需求文档,确保所有团队成员对需求有共同的理解。优先级排序:根据需求的重要性和紧急性进行优先级排序,确保资源的有效利用。项目总结:在项目完成后进行总结,回顾项目过程中的成功经验和不足之处。经验分享:组织经验分享会,将项目经验分享给其他团队成员,促进知识传播和团队成长。
2025-01-06 20:33:36
1106
原创 omi friend实战记录
omi friend是国外githab上开源的一个“AI硬件”的制作教程,它的形状是个三角形,属于项链佩戴这类的。可以接入llm进行对话,他有麦克风、扬声器,还有电池。外形好看,功能实用。还有专属的一系列app可以供方便实用这个博客,会把在制作过程中遇到的一些实际问题进行下记录,有兴趣的小伙伴欢迎加V:yifu0102,一起讨论。
2024-12-30 19:09:27
601
1
原创 chatglm3如何进行微调
内存:因为在load model时,是先放在内存里面,所以内存不能小,最好在30GB左右显存:如果用half()精度来load model的话(int4是不支持微调的),显存在16GB就可以,比如可以用kaggle的t4 gpu,这款性能相当于2070系列,但是显存翻倍python:3.10即可。
2024-12-30 16:52:24
978
原创 openglasses项目软件代码改造
这个项目是使用seeed studio XIAO esp32S3 sense这块开发版作为蓝牙模块(释放的蓝牙不是平时手机能搜到的那种蓝牙)1、然后适配硬件代码,可以支持每N秒拍一次照片;2、在软件项目中支持对每次拍到的照片进行【图片解释】,以及可以进行对话并使用历史所有的图片解释内容进行回答(回答不仅有文本,还有语音播放)
2024-12-19 16:37:43
803
原创 树莓派5+文心一言 -> 智能音箱
效果:运行起来后,可以连续对话硬件:树莓派5、麦克风、音箱,成本500-1000软件:snowboy作为唤醒词、百度语音作为语音识别、brain作为指令匹配、百度文心一言作为对话模块、微软的edge-tts语音合成...
2024-12-01 17:54:58
1136
原创 用多模态来做图文匹配
在大模型应用场景中,多模态学习是一个重要的研究方向,它涉及到将不同模态的信息(如文本、图像、音频等)进行有效整合,以提高模型的理解和表达能力。图文匹配识别作为多模态学习中的一个关键问题,要求模型能够理解图像内容并将其与相应的文本描述进行匹配
2024-08-12 23:51:07
660
原创 dsp平台怎么分发成百上千亿的流量?
运营团队根据规则对这些流量进行分发,以分发到外部,也就是合作的广告主(腾讯、网易等)为例。广告主对这些流量进行选择是否竞价以及竞价多少,然后回传给我们素材,我们再对多个同一个流量的多个竞价公司进行对比(同一个流量可能同时分发给多个广告主),然后选择其中之一返回给“媒体方”(媒体方那边也不止一个dsp第三方广告平台,会有多个平台来共同参与)去参与竞价,最后是否再进行展示(可能还会有自有广告流量,那就是自有广告+第三方广告的联合竞价)
2023-07-11 00:11:09
975
原创 lora,固定模特+固定衣服,怎么实现?
在电商行业,经常会有一个需求,就是把固定的衣服让模型穿上,然后拍很多的图片,放在商品主图、详情页、买家秀......人工智能发展到现在,最近aigc也挺热门的,有没有办法用“人工智能”算法就实现这个功能,下面讲解下我在这个点上的探索(出于任务肖像权,这里将人脸进行模糊处理)
2023-06-12 02:28:44
2506
5
原创 淘宝搜广推技术备注
可能是想拿到cate_attention这种收益(在精排上已经验证是很有效的,sim),所以增加了左边这个结构,淘宝的用户体系在30亿左右,日活在3.5亿左右,不用对着3.5亿用户都存储在每种cate上的向量,只需要做过去N天(比如60天活跃),cate也是选择交互过的cate,这样做出来的kkv表,数据量就不是特别大了,可以满足线上性能,再把emb维度缩小点,这样性能会更好一点。uctr是用户的ctr(比如进入淘宝首页的用户量是3亿,从这里进入淘宝直播宫格的是1亿,那么uctr是0.33);
2023-05-05 20:18:31
1178
原创 沉浸式推荐业务和信息流推荐业务
但是点其中任何一个商品进去会出现大约80%是A商品,下面的20%会漏出B商品(这个功能很重要,属于引导下滑,会给浏览深度这个指标造成很大的影响),这个又属于”沉浸式推荐“。淘宝app首页中部有个“有好货”icon/宫格,这里面的每个内容和猜你喜欢有明显的差别,有推荐,有推荐的文字,有优势,有回头客,有多少年老店这种展示,产品之所以设计成这样,目的一是导购、二是推荐好产品给用户提高用户对产品的依赖性、三是沉浸式推荐,就是通过这种很全面、花里胡哨的界面让用户产生和刷抖音一样的感觉,也属于是”沉浸式推荐“。
2023-05-05 20:18:22
385
原创 大模型,真的有未来吗?
业界最近比较热门的应该就是大模型这个事情了,从openai发布chatgpt为开始,国内外众多公司~名人都有相应的反映。这真的是一件很有价值的事情吗,今天博主就来聊聊自己的看法文章从这样几个点出发看下,一是业界公司的一些消息,二是大模型对普通公司、个人来说可以干一些啥,三是谈谈未来情况。
2023-05-05 20:15:38
446
原创 pepnet:通过注入个性化的先验信息来训练参数化、嵌入化的个性化网络
设计思想可能是:主干网络和ppnet网络层次分明、各干各的事,如果混在一起在快手这边可能效果不好。每个tower的N个mlp层乘不乘ppnet的输出都可以,如果只是ppnet的话,可以只乘到最底层的特征嵌入层。翻译:多任务重点在拟合不同任务之间的分布,但是忽略了多领域(场景)下特征空间的不同点。如果把这种先验知识放在最底层,那么在网络向上传播的过程中这种信息会变得非常弱,所以在哪里、怎么设计是很重要的一环。同一场景下的不同目标之间、不同场景下同一目标,样本稀疏程度、特征空间、用户分布等都是差异。
2023-03-14 17:34:26
1555
原创 变分学习框架
https://arxiv.org/pdf/2201.10980.pdf因为样本量较少,所以基于点估计的学习架构是不置信的1:我们提出了一个具有可解释概率嵌入生成过程的通用变分嵌入学习框架 (VELF),以缓解 CTR 预测中的冷启动问题。sparse和dense层是端到端学习的。2:利用丰富的辅助信息,学习新颖的参数化和正则化先验,旨在进一步改进我们模型的泛化能力。3:在三个基准数据集上进行了广泛的实验。结果验证了我们提出的 VELF 的有效性和提出的参数化和正则化先验的优势。......
2022-07-01 23:39:17
359
原创 双重迁移学习框架来改进长尾item推荐
从头部item把信息迁移到尾部item。我们提出了一个共同学习知识迁移的学习框架。1. 模型级指样本迁移,2. 样本级指迁移item特征信息𝜃1->𝜃 ∗,左边是模型参数迁移。右边是特征迁移1:很多现有的迁移学习方法都是经过在源任务上预训练,再在最终目标任务上进行微调,这个需要两个数据有同分布,但是头部和长尾不存在这个分布2:推荐系统中,头部item会重点影响用户体验,推荐尾部有风险.........
2022-05-19 11:27:25
476
原创 Gradient Surgery for Multi-Task Learning
参考文章:论文阅读:Gradient Surgery for Multi-Task Learning - 知乎
2022-04-26 19:16:13
644
原创 直播推荐、搜索中的召回、相关性、多目标精排、特征、重排 - 多目标精排(3) - loss权重的4种方案
直播推荐、搜索中的召回、相关性、多目标精排、特征、重排 - 多目标精排(3) - loss权重的4种方案
2022-04-23 03:01:03
2322
原创 Progressive LayeredExtraction(PLE):ANovelMulti-Task Learning(MTL)ModelforPersonalizedRecommendations
重点回顾1:多个目标分数怎么融合?其中每个 w 确定每个预测的相对重要性score, f (video_len) 是视频时长中的非线性变换函数,例如 sigmoid 或 log 函数。wV T R,wV CR,wSH R,wCMR是通过在线实验搜索优化的超参数,目的是最大化在线指标。2:解决了mmoe每个任务都是从共享专家网络中进行选择,ple除了共享专家网络还有自己的独有网络,然后这些合并在一起(假设有8个专家网络,4个独有网络),那么就有12个softmax过后的权重进行相乘3:不.
2022-04-10 19:52:49
1534
原创 Modeling Task Relationships in Multi-task Learning withMulti-gate Mixture-of-Experts
许多基于 DNN 的多任务模型对:数据分布、任务之间的差异很敏感,导致并不一定是多任务会优于单模型每个专家网络是一个前馈网络门控网络采用输入特征,输出专家的不同权重的softmax门为了解 MMoE 如何针对不同级别的任务,学习其专家和门控网络,我们用 Pearson 相关性来衡量不同任务之间的相关性。 与 [24] 类似,我们使用两个合成回归任务并使用正弦函数作为数据生成,引入非线性的机制。 我们的方法表现出色,尤其是在任务相关时低时。 在这组实验中,我们还发现 MMoE 是在多次运.....
2022-04-09 11:52:37
1398
原创 The LambdaLoss Framework for Ranking Metric Optimization
论文地址:https://storage.googleapis.com/pub-tools-public-publication-data/pdf/1e34e05e5e4bf2d12f41eb9ff29ac3da9fdb4de3.pdf如何优化排名指标,例如标准化折扣累积增益(NDCG)是一个重要但具有挑战性的问题,因为排名指标在任何地方都是平坦的或不连续的,这使得它们很难直接优化。在现有的方法,LambdaRank 是一种新颖的算法,它在loss计算上结合了Metric排序指标,一般来说loss是尽.
2022-04-04 00:41:18
1799
原创 直播推荐、搜索中的召回、相关性、多目标精排、特征、重排、样本 - 样本
1:负样本采样全民K歌直播推荐算法实践对于没有正样本的请求,所有的都是负样本对于有正样本的请求,可以采用skip-above(正样本位置前面的样本才可作为负样本,后面的样本当做是用户没有交互过);click-around(博主对这个做法也没有实际尝试过,做法应该是定义正样本后面N个位置也可以当做负样本)......
2022-03-06 11:13:49
545
原创 直播推荐、搜索中的召回、相关性、多目标精排、特征、重排 - 多目标精排(1)
直播推荐、搜索中的召回、相关性、多目标精排、特征、重排 - 多目标精排
2022-03-03 08:46:21
1204
1
原创 直播推荐、搜索中的召回、相关性、多目标精排、特征、重排 - 重排篇
一、YY直播的重排思路Dolphin.海豚会|基于推荐算法提升直播业务的效能实践_用户二、全民k歌的重排设计腾讯音乐:全民K歌推荐系统架构及粗排设计
2022-02-28 15:27:45
1927
原创 直播推荐、搜索中的召回、相关性、多目标精排 - 相关性篇
二、搜索相关性1:dssm做相关性,dssm一般有3种,还有两种变形cnn-dssm,lstm-dssmDSSM、CNN-DSSM、LSTM-DSSM等深度学习模型在计算语义相似度上的应用+距离运算_古月哲亭-优快云博客_lstm语义相似度(1) dssm有几个重要的点 - 优缺点1) 优点:英文的输入层处理方式是通过word hashing。举个例子,假设用 letter-trigams 来切分单词(3 个字母为一组,#表示开始和结束符),boy 这个单词会被切为 #-b-o, ..
2022-02-23 23:30:19
1718
原创 推荐领域 - 用户未来兴趣探索办法
一、来自2021召回技术在内容推荐的实践总结-阿里云开发者社区MIND里面主要是对用户序列通过胶囊网络提取出多兴趣(多个user_embedding),然后每个user_embedding都可以召回topN个item,和这里说到的“通过兴趣之间的相似”,貌似没有什么关系二、来自阿里,长序列建模三、来自阿里的dien......
2022-02-13 17:39:32
484
原创 阿里 - 淘宝 - 精排模型发展趋势
一、DIN网络2018年7月19日,提出attention结构用在用户序列特征上,这种attention不是self-attention,而是预估item用来当做query,用户序列中的每个item作为key value阿里兴趣网络DIN网络中几个关键的点(三)_1066196847的博客-优快云博客_din网络二、DIEN网络 2018年相对于DIN网络有这样改进点,DIN网络只做了用户序列attention这件事,DIEN首先加了一个loss,用gru计算点击序列(长度为T)的T个输.
2022-02-12 21:26:45
915
原创 Multi-Interest Network with Dynamic Routing for Recommendation at Tmall(MIND)
1:这个是用在召回阶段,每个用户计算N个兴趣向量时,只用计算1遍,和din这种和预估item绑定的思路是分开的胶囊网络: “胶囊”的概念,一小群神经元组装输出一个完整的向量,首先由Hinton [13] 在 2011 年提出。动态路由替代反向传播[21]用于学习胶囊之间连接的权重,通过利用期望最大化来改进算法 [14] 克服了几个不足并取得了更好的准确性。 这两个与传统神经网络的主要区别使得胶囊网络能够编码部分与整体之间的关系,这在计算机视觉、自然语言处理中是先进的。 SegCaps [18] 证明胶囊
2022-02-10 12:39:26
824
原创 搜索推荐 - 召回总纲
一、召回总述CMDM:基于异构序列融合的多兴趣深度召回模型在内容平台的探索和实践_淘系技术-优快云博客当前工业界的召回算法主要分为两类:基于协同过滤的召回(比如swing i2i):优点:基于协同过滤的i2i召回从全局来看简单高效,依靠内容的共现性可以保证用户兴趣性、相关性,同时借助实时trigger便于捕捉用户的实时兴趣,在召回算法中发挥着非常重要的作用缺点:但是i2i召回本身也存在一些问题,比如对新用户和新商品不友好,难以解决冷启动问题基于深度学习的向量召回(比如deepmat
2022-02-05 14:08:28
774
原创 淘宝逛逛,融合淘宝商品序列 - 逛逛场景内容序列的办法
一、难点一右侧的公式是从底往上看两个mean-pooling很简单,假设形成64维的向量 Ec1 Ei1,相乘得到Ef1,也是64维向量,这里的vanilla-attention(推荐搜索的冷启动问题_1066196847的博客-优快云博客)vanilla-attention的重点是,Query由decoder输出,也就相当于这里的Ef1,K V由encoder输入,从Ec2 Ei2公式中看都是C或者都是I,用C来举例,那么就都是content sequence的每个item,先和
2022-02-04 22:28:12
1172
Deep Learning Recommendation Models for Personalization
2019-07-07
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人