- 博客(48)
- 收藏
- 关注
原创 中医时辰-子午流注理论
等太阳出来之后,空气新鲜时,可以活动一下,而早晨是阳气生发的时候,要顺其生发,迎接新一天的到来。三焦虽为六腑之一,但三焦总的生理功能是其他几个脏腑在水谷消化吸收、营养排泄等方面功能的总和,而这一总的作用是宗气(积于胸中,贯注于心肺之脉)、中气(脾胃之气)、元气(肾气)三者相辅相成的集合体。人体在十二时辰中,从亥时(21点)到寅时(5点),是阴盛阶段(夜间),人体要在安静中获得睡眠。中医有“肺与大肠相表里”之说,卯时肺经气血入大肠经,此时天已亮了,早晨起床喝适量水,促进排便,要养成良好的习惯。
2024-10-10 11:26:14
737
原创 MobileNetV2: Inverted Residuals and Linear Bottlenecks
这篇文章是一篇关于MobileNetV2的学术论文,主要介绍了MobileNetV2的架构设计及其在图像分类、目标检测和语义分割任务中的应用。
2024-09-24 14:01:35
652
原创 MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications
这篇文章是一篇关于MobileNets的学术论文,主要介绍了MobileNets的设计原理、架构以及在不同应用场景中的表现。
2024-09-24 10:18:09
343
原创 NAS(神经架构搜索)基准数据集
在 NAS(神经架构搜索)任务中,基准数据集是指专门设计并提供固定的搜索空间、评价指标和预训练结果的数据集,用于公平评估和比较不同 NAS 算法的表现。
2024-09-20 13:39:57
1406
原创 目标检测-数据集
目标检测数据集是用于训练、验证和测试目标检测模型的图像和标注数据的集合。这些数据集通常包含多种类别的物体,并提供了每个物体的位置信息(即边界框)。
2024-09-19 14:40:37
991
原创 1. YOLOv10: Real-Time End-to-End Object Detection
文章主要介绍了YOLOv10在实时端到端目标检测方面的改进和创新。
2024-09-13 10:31:51
1172
原创 RGBD和6-DoF
平移自由度(3 个)前后(X 轴):沿着 X 轴的平移运动。上下(Y 轴):沿着 Y 轴的平移运动。左右(Z 轴):沿着 Z 轴的平移运动。旋转自由度(3 个)绕 X 轴旋转(Roll,滚动):沿 X 轴旋转。绕 Y 轴旋转(Pitch,俯仰):沿 Y 轴旋转。绕 Z 轴旋转(Yaw,偏航):沿 Z 轴旋转。
2024-09-02 16:10:03
1120
原创 强化学习-优化策略算法(DPO和PPO)
• 基于强化学习中的策略梯度方法,PPO 改进了 Trust Region Policy Optimization (TRPO),通过引入剪切损失函数,限制策略更新的幅度,确保优化过程中的稳定性。• DPO 基于用户偏好或人类反馈的直接优化,这种方法的核心是对比学习或通过偏好数据进行的策略调整,理论上更接近人类反馈优化的范畴,且不需要明确的奖励函数。• DPO 更加侧重于直接优化用户偏好,适用于那些传统奖励难以定义的任务,通过直接利用反馈数据进行策略调整,提供了一种新的优化途径。
2024-09-02 16:04:11
1546
原创 强化学习-轨迹数据(Trajectory Data)
Trajectory Data 是强化学习中至关重要的概念,反映了智能体在特定策略下的学习过程和表现。它为策略评估、改进、经验回放、行为克隆和模型学习提供了基础数据,是强化学习算法有效运行和优化的核心。
2024-08-13 10:46:18
1829
原创 HDD(机械硬盘)和 SSD(固态硬盘)
HDD(Hard Disk Drive)和SSD(Solid State Drive)是两种不同类型的存储设备,广泛用于计算机和其他电子设备中。它们在性能、构造、寿命和价格等方面存在显著差异。
2024-08-09 14:04:53
863
原创 数据集--COCO2017(快速下载)
COCO(Common Objects in Context)数据集是计算机视觉领域中最广泛使用的数据集之一,主要用于目标检测、分割和图像标注任务。COCO 数据集由 Microsoft 发布,包含了数十万张标注的图像,涵盖了 80 个常见的物体类别,并提供了丰富的注释信息,如目标的边界框、分割掩码、关键点等。COCO 数据集的主要特点包括:COCO 数据集支持多种任务,如目标检测、语义分割、实例分割、人体姿态估计和图像标注等。
2024-08-08 16:22:43
2211
原创 Docker 容器相关的常见面试问题及答案
Docker 是一个开源的平台,允许开发者自动化地部署应用程序在容器中。容器是轻量级、独立且打包的应用服务,可以在任何环境中运行,确保一致性和可移植性。
2024-06-18 23:06:14
2315
原创 Flash Attention介绍
Flash Attention是一种优化Transformer模型中注意力机制的技术,旨在提高计算效率并减少内存使用。
2024-06-13 15:19:32
2126
原创 数据结构-哈希表
哈希表是一种高效的数据结构,它可以提供快速的插入、删除和查找操作。哈希表的基本思想是将键通过一个哈希函数映射到一个连续的地址空间上,然后在这个地址空间上进行查找、插入和删除操作。下面将详细介绍哈希表的相关概念和实现方法。
2024-06-01 13:32:40
614
原创 机器学习系列--强化学习
强化学习是一种通过智能体与环境的交互来学习最佳行动策略的方法,具有广泛的应用前景。尽管面临诸多挑战,如样本效率低、训练不稳定等,但随着算法的不断改进和计算资源的增加,强化学习在各个领域的应用潜力不断被发掘。
2024-05-24 12:16:07
677
原创 大模型--LangChain介绍
LangChain 是一个功能强大的框架,旨在简化与大规模语言模型交互的开发过程。通过提供链、记忆、提示、数据代理和工具等模块,LangChain 使开发者能够轻松构建复杂的 NLP 应用,如对话系统、内容生成工具和智能助手等。其多模型支持、自定义链和状态管理等特性,使得应用开发更加灵活和高效。
2024-05-23 14:52:39
564
原创 大模型面试--大模型(LLMs)基础面
这些开源大模型和平台提供了强大的工具和资源,帮助研究人员和开发者在各种任务中应用最先进的机器学习模型。这些模型和框架不仅在 NLP 领域占据重要地位,也在计算机视觉、多模态数据处理等领域取得了显著的成果。Encoder:将输入序列编码为一个固定长度的上下文向量(或一系列向量)。Decoder:使用该上下文向量生成输出序列。单向解码器:只能访问当前时间步及之前的时间步的输入信息。部分双向解码器:在生成阶段,只能访问生成过程中的之前的输出,但在编码阶段可以利用上下文信息。
2024-05-23 10:19:51
565
原创 数据结构--队列
队列是一种先进先出(FIFO)的数据结构。基本操作包括入队、出队、获取前端元素、检查是否为空和获取队列大小。双端队列(Deque)允许在两端进行插入和删除操作,比普通队列更灵活。Python 的提供了高效的双端队列实现。通过以上示例和解释,你应该对队列有一个基本的了解,并知道如何在 Python 中使用队列和双端队列。
2024-05-21 22:55:36
465
原创 3. 深度学习笔记--优化函数
深度学习——优化器算法Optimizer详解(BGD、SGD、MBGD、Momentum、Adagrad、Adadelta、RMSprop、Adam、Nadam、AdaMax、AdamW )
2024-05-05 22:35:57
1067
原创 2. 从头搞懂 Transformer模型(代码实现)
让我们深入探讨其中一些主题,包括不同的注意力变体、BERT(来自 Transformers 的双向编码器表示)和 GPT(生成式预训练 Transformer),以及它们的实际应用。让我们将编码器、解码器、注意力机制、位置编码和前馈网络的知识汇集起来,以了解完整的 Transformer 模型是如何构建和运作的。解码器的主要功能是生成输出序列,同时注意到输入序列的相关部分和先前生成的标记。我们使用预训练的词嵌入或在训练过程中学习的嵌入,将输入序列中的每个单词映射到高维向量空间中。
2024-05-04 01:04:09
1601
原创 GPT是什么?直观解释Transformer | 深度学习第5章 【3Blue1Brown 官方双语】
0:00 - 预测,采样,重复:预训练/生成式/Transformer模型3:03 - Transformer 的内部结构6:36 - 本期总述7:20 - 深度学习的大框架12:27 - GPT的第一层:词嵌入为向量(embedding)18:25 - 嵌入空间不仅代表词,还能包含上下文信息20:22 - GPT的最后一层:向量解码为词(Unembedding)22:22 - 带温度的 Softmax 函数26:03 - 下期预告:深入注意力机制。
2024-05-02 16:14:57
957
1
原创 笔记1--Llama 3 超级课堂 | Llama3概述与演进历程
DPO 无需训练额外的奖励模型,从而节省了计算资源并消除了与奖励模型准确性和维护相关的挑战。与RLHF 涉及收集详细反馈、优化复杂策略和奖励模型训练的多层过程不同,DPO 直接将人类偏好集成到训练循环中。此外,DPO 不涉及构建和调整奖励函数的复杂性。DPO 使用 LLM 作为奖励模型,并采用二元交叉熵目标来优化策略,利用人类偏好数据来识别哪些响应是首选的,哪些不是。与 RLHF 首先训练奖励模型进行策略优化不同,DPO 直接将偏好信息添加到优化过程中,而无需训练奖励模型的中间步骤。
2024-05-02 13:39:52
755
原创 1. 从头搞懂 Transformer模型(图解)
Transformer:Query 和 Key 之间的点积计算出每对词之间的相关性。然后,这种相关性被用作一个 "因子 "来计算所有 Value 向量的加权和。该加权和的输出为注意力分数。Transformer 通过对嵌入向量的学习,使彼此相关的词更加一致。这就是引入三个线性层的原因之一:为 Attention module 提供更多的参数,使其能够通过学习调整词向量。
2024-05-01 23:05:10
8813
原创 1. 深度学习笔记--神经网络中常见的激活函数
每个激活函数的输入都是一个数字,然后对其进行某种固定的数学操作。激活函数给神经元引入了非线性因素,如果不用激活函数的话,无论神经网络有多少层,输出都是输入的线性组合。激活函数的意义在于它能够引入,使得神经网络可以拟合非常复杂的函数,从而提高了神经网络的表达能力和预测性能。激活函数的发展经历了Sigmoid -> Tanh -> ReLU -> Leaky ReLU -> Maxout这样的过程,还有一个特殊的激活函数Softmax,因为它只会被用在网络中的最后一层,用来进行最后的分类和归一化。
2024-05-01 16:09:07
1592
原创 ONNX--整理笔记
ONNX(Open Neural Network Exchange)是一个开放的深度学习模型交换格式。目标是让不同的深度学习框架之间能够无缝地交换和使用训练好的模型,从而实现模型的跨平台部署和共享。ONNX提供了一个中立的、可扩展的表示格式,能够描述常见的深度学习模型架构,如卷积神经网络(CNN)、循环神经网络(RNN)和图神经网络(GNN)。使用ONNX,用户可以在不同的深度学习框架(如PyTorch、TensorFlow、Caffe等)之间进行模型转换和迁移,无需重新训练模型。
2024-04-29 13:07:37
964
原创 第3课笔记 茴香豆:零代码搭建你的 RAG 智能助理
检索过程中,茴香豆会将输入问题与两个列表中的问题在向量空间进行相似性比较,判断该问题是否应该回答,避免群聊过程中的问答泛滥。确定的回答的问题会利用基础模型提取关键词,在知识库中检索。我们已经提取了知识库特征,并创建了对应的向量数据库。进入开发机后,从官方环境复制运行 InternLM 的基础环境,命名为。文档作为新增知识数据检索来源,在不重新训练的情况下,打造一个。命令行输入下面的命令,修改用于向量数据库和词嵌入的模型。的相关模块,默认嵌入和重排序模型调用的网易。相关的新增知识就以向量数据库的形式存储在。
2024-04-26 15:39:05
1100
1
原创 第一节课笔记 书生·浦语大模型全链路开源体系
第一节课作业上传的笔记内容包括看本次视频做的笔记和读 InternLM2 技术报告做的笔记, 后者是加分项哈, 非必做, 这两个都写到同一个笔记文档,提交一个链接。
2024-04-01 20:18:24
1037
原创 第二课作业 轻松玩转书生·浦语大模型趣味 Demo
模型生成 300 字的小故事(需截图)文件到本地(需截图下载过程)文件到本地(需截图下载过程)python 包,下载。Demo 部署(需截图)python 包,下载。
2024-04-01 19:57:05
373
原创 第二课笔记 轻松玩转书生·浦语大模型趣味 Demo
Lagent 是一个轻量级、开源的基于大语言模型的智能体(agent)框架,支持用户快速地将一个大语言模型转变为多种类型的智能体,并提供了一些典型工具为大语言模型赋能。它的整个框架图如下:
2024-04-01 19:52:42
1131
原创 第六课笔记 OpenCompass 大模型评测
本算法库的主要评测对象为语言大模型与多模态大模型。我们以语言大模型为例介绍评测的具体模型类型。基座模型:一般是经过海量的文本数据以自监督学习的方式进行训练获得的模型(如OpenAI的GPT-3,Meta的LLaMA),往往具有强大的文字续写能力。对话模型:一般是在的基座模型的基础上,经过指令微调或人类偏好对齐获得的模型(如OpenAI的ChatGPT、上海人工智能实验室的书生·浦语),能理解人类指令,具有较强的对话能力。
2024-02-20 18:26:31
1203
原创 第六课作业 OpenCompass 大模型评测
基础作业生成可视化文件:进阶作业备注:由于进阶作业较难,完成基础作业之后就可以先提交作业了,在后续的大作业项目中使用这些技术将作为重要的加分点!
2024-02-20 18:26:01
458
原创 第四课作业-使用 XTuner 微调 InternLM-Chat-7B 模型(智能小助手)
将训练好后的模型应用部署到 OpenXLab 平台,参考部署文档请访问:https://aicarrier.feishu.cn/docx/MQH6dygcKolG37x0ekcc4oZhnCe。将训练好的Adapter模型权重上传到 OpenXLab、Hugging Face 或者 MoelScope 任一一平台。微调后(对自己的身份弟位有了清晰的认知)微调前(回答比较官方)
2024-02-03 00:56:01
478
1
原创 第四课笔记 XTuner 大模型单卡低成本微调实战
以数据集为例场景需求基于 InternLM-chat-7B 模型,用 MedQA 数据集进行微调,将其往医学问答领域对齐。此时,我们重新建一个文件夹来玩“微调自定义数据集”把前面下载好的internlm-chat-7b模型文件夹拷贝过来。别忘了把自定义数据集,即几个.jsonL,也传到服务器上。MSAgent 数据集每条样本包含一个对话列表(conversations),其里面包含了 system、user、assistant 三种字段。
2024-02-02 22:59:06
1019
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人