
笔记
文章平均质量分 87
qzhqbb
这个作者很懒,什么都没留下…
展开
-
查漏补缺01
召回是从大量候选物品中筛选出一小部分潜在感兴趣的物品的过程。它在推荐系统中扮演着至关重要的角色,因为它在某种程度上决定了整个推荐的上限。原创 2024-12-02 00:21:56 · 1275 阅读 · 0 评论 -
Dify+Docker
直接下载(1)访问(2)点击绿色的"Code"按钮,然后选择"Download ZIP"(1)先找到文件所在的文件夹(通常在 dify 目录下的 docker 文件夹中)进入这个命令会启动在中定义的所有服务。原创 2024-11-30 00:15:42 · 867 阅读 · 0 评论 -
大模型 LLM 八股文
LLM(Large Language Model,大型语言模型)是指基于大规模数据和参数量的语言模型。Transformer 架构:大模型 LLM 常使用 Transformer 架构,它是一种基于自注意力机制的序列模型Transformer 架构由多个编码器层和解码器层组成,每个层都包含多头自注意力机制和前馈神经网络。这种架构可以捕捉长距离的依赖关系和语言结构,适用于处理大规模语言数据。自注意力机制(Self-Attention):自注意力机制是 Transformer 架构的核心组件之一。原创 2024-11-29 00:59:34 · 860 阅读 · 0 评论 -
简历面-面经03
用户分类:根据用户的角色和职责划分用户类型,例如管理员、开发者和普通用户。角色创建:为不同的用户或服务创建特定的角色,这些角色具有不同的访问权限。例如,开发者角色可以管理函数代码,但不能删除函数。原创 2024-11-27 23:43:49 · 839 阅读 · 0 评论 -
简历面--面经03
使用特殊符号(如箭头)代替 NoOp 节点,直接在节点之间表示数据流向,减少节点数量,使图更清晰。例如,使用向上的箭头表示节点有一个输出指向 NoOp,使用向下的箭头表示节点有一个输入来自 NoOp。节点聚类和边缘捆绑: 根据命名空间和节点类型对节点进行聚类,并将同一层级的节点之间的多条边捆绑成一条边。将同一层且只有一个输出、没有输入且指向相同目标节点的常量节点合并成一个节点,减少节点数量,简化图的结构。简化图结构: 常量节点通常数量众多,且功能单一,将其聚合可以显著减少图中的节点数量,使图更简洁易懂。原创 2024-11-27 17:08:45 · 675 阅读 · 0 评论 -
简历面--面经02
编码器(下采样部分)和解码器(上采样部分)。编码器(Contracting Path)功能:提取特征并降低图像分辨率。结构:由一系列卷积层和池化层组成。每个卷积块通常包含两个卷积层,后跟一个最大池化层。通过这种方式,网络逐渐增加特征图的深度,减少空间维度。例如:在最开始的层中,输入图像通过一系列的卷积操作,得到更多的特征信息,再通过池化层减小尺寸。瓶颈层功能:连接编码器和解码器部分,通常是卷积操作,进一步提取特征。解码器(Expanding Path)功能。原创 2024-11-27 02:22:49 · 703 阅读 · 0 评论 -
简历面--面经01
Python 常用于数据分析、机器学习和 Web 开发,Java 则常用于企业应用和 Android 开发。我比较喜欢 Python,因为它的语法简单易读,而且社区支持非常强大,适合快速开发。O(n * W): 在处理背包问题时,W 表示背包的容量,n 表示物品的数量,表示存储所有可能状态所需的空间。请详细说明你在 Python 和 Java 中的项目经验。O(log n): 空间需求与输入规模成对数关系,通常出现在二分查找的递归实现中。O(1): 算法在运行时只需要常数级别的空间,与输入规模无关。原创 2024-11-26 15:55:27 · 748 阅读 · 0 评论 -
哈希表(极速学习版)
留余数法:简单易用,适合整数,但对数组大小选择敏感。折叠法:适合处理长键,具有较好的分布性,但实现较复杂。乘法哈希:能够生成更均匀的哈希值,适用性广,但实现相对复杂。原创 2024-11-22 17:42:52 · 687 阅读 · 0 评论