
深度学习
文章平均质量分 91
深度学习(Deep Learning)是机器学习领域中的一个研究方向,主要是通过学习样本数据的内在规律和表示层次,让机器能够具有类似于人类的分析学习能力。深度学习的最终目标是让机器能够识别和解释各种数据,从而实现人工智能的目标。深度学习的关键在于神经网络,这是一种模拟人类大脑神经元的工作方式的算法。
109702008
数字人 - 幺洞勾拐洞两洞洞八
展开
-
agenthub\codeact_agent\action_parser.py
这段代码实现了一个灵活的动作解析系统,能够根据不同的动作标签解析并执行相应的动作。通过使用多个子解析器和一个默认解析器,系统能够处理多种类型的动作,并确保在解析过程中的一致性和正确性。原创 2024-07-17 05:31:38 · 855 阅读 · 1 评论 -
可学习激活函数 Maxout
假设输入是向量x,通过权重矩阵W_i和偏置向量b_i进行线性变换,对于某一层的第i个神经元,`Maxout` 函数的定义如下:其中:x是输入向量。W_i是第i个线性变换的权重矩阵。b_i是第i个线性变换的偏置向量。k是一个超参数,表示我们允许的线性变换的数量。原创 2024-07-16 00:06:13 · 912 阅读 · 2 评论 -
大语言模型系列-Transformer
3. XLNet(eXtreme Multi-task Learning for Efficiently Scalable and Accurate Multi-task Learning)- XLNet是一种基于自回归模型的语言模型,它采用了一种新的预训练方法,称为Permutation Language Modeling(PLM),能够在不损失自回归能力的情况下处理任意长度的文本序列。具体来说,DETR利用Transformer架构中的自注意力机制,来对图像特征进行全局编码,并生成一组潜在的检测结果。原创 2024-07-06 08:35:36 · 1136 阅读 · 2 评论 -
目标检测算法
1. R-CNN(Region-based Convolutional Neural Network)系列算法:包括 R-CNN、Fast R-CNN、Faster R-CNN、Mask R-CNN,这些算法都是以区域建议网络 (RPN) 作为基础,使用卷积神经网络进行特征提取和分类。5. EfficientDet:EfficientDet是一种高效的目标检测算法,它基于EfficientNet网络结构,通过使用一系列特征金字塔网络和轻量级的检测头,实现了更高的检测精度和更低的计算开销。原创 2024-07-05 23:31:57 · 1250 阅读 · 1 评论 -
大语言模型系列-Transformer
自动生成文章或新闻的摘要。原创 2024-06-22 03:35:52 · 1617 阅读 · 1 评论 -
一文看懂llama2(原理&模型&训练)
理解一个机器学习模型(如假设的llama2)的关键在于掌握其原理、模型结构和训练过程。这涉及到从数据中提取特征,选择合适的模型架构,定义损失函数,以及使用优化算法来训练模型。通过这些步骤,模型能够从数据中学习并做出准确的预测。原创 2024-06-13 07:44:00 · 2444 阅读 · 0 评论 -
深度解读ChatGPT基本原理
ChatGPT通过结合大规模预训练的Transformer模型、特定任务的微调技术,以及可能的RLHF等高级训练策略,实现了高水平的自然语言理解和生成能力。它不仅代表了自然语言处理技术的重大进步,也预示着人工智能在人机交互领域的新时代。然而,其工作原理的具体细节,如确切的训练数据集、微调策略和评估反馈机制,由于技术保密原因,外界了解有限。深入解读 ChatGPT 的基本原理(个人总结版)_chatgpt架构-优快云博客深入浅出,解析ChatGPT背后的工作原理-人工智能-PHP中文网。原创 2024-06-05 08:43:25 · 1676 阅读 · 0 评论 -
解决cannot import name ‘prepare_model_for_int8_training‘ from ‘peft‘ 错误
出现“cannot import name ‘prepare_model_for_int8_training‘ from ‘peft‘”错误通常表示你尝试从 Python 包 peft 导入一个不存在的函数 prepare_model_for_int8_training。如果在尝试上述建议后问题仍未解决,你可能需要提供更详织的信息,例如 peft 包的版本号、安装方式或是你尝试导入该函数的代码片段,以便能够提供更具体的帮助。请检查你是否安装了正确的包,并检查你的环境路径是否包含了该包。原创 2024-05-30 18:55:10 · 3216 阅读 · 3 评论 -
unpermute_kernel_backward<<<num_blocks, block_size>>>(scratch, dout, B, T, NH, HS);
这行代码是用来调用一个名为unpermute_kernel_backward`的CUDA kernel,其中`num_blocks`是grid中block的数量,`block_size`是每个block中thread的数量。其中`hipLaunchKernelGGL`是用于启动kernel的宏,`dim3(num_blocks)`和`dim3(block_size)`指定了block和grid的维度,后面的两个0分别对应了共享内存大小和流(stream),尽管这里它们被设置为0,表示使用默认值。原创 2024-05-30 18:46:43 · 655 阅读 · 0 评论 -
情感分析及数据集代码解析
11. 最后定义了一个函数`load_data_imdb`,它下载数据集、读取数据、分词、建立词汇表、处理文本为固定长度的序列,并返回训练和测试的数据迭代器以及词汇表供后续的神经网络模型使用。标签为'neg'表示消极的评论,使用0表示。7. 准备数据迭代器:数据被截断或填充至指定的序列长度(这里是500个单词),然后使用`d2l.load_array`函数将处理后的数据和标签封装成小批量的数据迭代器。1. 导入所需的包和模块,如`os`、`torch`、`nn`以及一个定制的深度学习库`d2l`。原创 2024-05-28 11:52:29 · 860 阅读 · 2 评论 -
windows ollama 指定模型下载路径
打开任务管理器,转到“进程”标签(或Windows 10及更高版本的“详细信息”标签),找到与"Ollama"相关的进程,右键点击并选择“结束任务”。如果使用的是某些特定的IDE或代码编辑器,它们可能有自己的方式来设置环境变量。在Windows系统中,如果想为Ollama指定模型的下载路径,可以通过设置环境变量来实现。在设置环境变量时,确保路径是正确的,并且有足够的权限来访问和写入该目录。在“系统变量”或“用户变量”部分,点击“新建”来创建一个新的环境变量。右键点击“此电脑”或“计算机”,选择“属性”。原创 2024-05-28 11:51:11 · 26653 阅读 · 0 评论 -
使用LoRA进行高效微调:基本原理
选择一个预训练的神经网络模型,例如ResNet、Transformer等。为了简单起见,您可以选择一个轻量级的卷积神经网络(CNN)。原创 2024-05-26 07:25:33 · 7521 阅读 · 6 评论 -
ROCm上来自Transformers的双向编码器表示(BERT)
需要注意的是,这个代码片段作为一个解析,但实际中运行它需要额外的上下文(例如 MaskLM 类的实现)和适当的数据准备和预处理步骤。9. 模型实例化后,通过随机生成的 tokens 和 segments 调用其 forward 方法,得到编码后的向量 encoded_X,同时执行MLM和NSP任务,输出预测结果。6. MaskLM 类未在代码中定义,通常用来实现BERT的掩码语言模型任务,它在一定比例的输入词元上应用掩码,并训练模型来预测这些被掩码的词元。原创 2024-05-26 07:24:28 · 1005 阅读 · 0 评论 -
ROCm上情感分析:使用循环神经网络
LSTM层(`encoder`)设定为双向,输出经过全连接层(`decoder`)得到最终的分类结果。整体来看,这段代码主要是利用循环神经网络对电影评论的情感进行分类,它通过加载预训练好的词向量,构建一个双向LSTM网络,并在IMDB评论数据集上进行训练和测试。加载IMDB电影评论数据集,并用迭代器`train_iter`和`test_iter`进行训练和测试。`vocab`是数据集的词汇表。这里导入了PyTorch库、神经网络模块`nn`和基于PyTorch的深度学习库`d2l`(深度学习的一本书)。原创 2024-05-25 05:45:19 · 553 阅读 · 4 评论 -
ROCm上运行网络中的网络(NiN)
使用`nn.Sequential`定义了NIN的网络结构,它由多个`nin_block`和`MaxPool2d`、`Dropout`等层经过堆叠后形成,并且在网络最后使用全局平均池化层`AdaptiveAvgPool2d`代替全连接层,然后将输出扁平化(`Flatten`)以匹配类别标签数量。导入了PyTorch的核心库,用于构建网络模型和数据处理,以及`d2l`作为`Dive into Deep Learning`书的辅助工具包,用于加载数据和模型训练等功能。原创 2024-05-24 08:27:14 · 1052 阅读 · 1 评论 -
ROCm上运行情感分析:使用卷积神经网络
TextCNN模型通过嵌入层(`nn.Embedding`)将单词映射到低维空间,然后使用卷积层(`nn.Conv1d`)提取局部特征,最后通过一个全连接层(`nn.Linear`)进行分类。调用预测函数`predict_sentiment`测试模型效果,传入模型、词汇表和待预测的句子,函数会输出句子的情感倾向(正面或负面)。`train_ch13`函数来自`d2l`工具箱,负责模型的训练过程。通过`apply`函数将初始化操作`init_weights`应用到模型的每个子模块上。原创 2024-05-24 08:25:44 · 481 阅读 · 0 评论 -
ROCm上运行Transformer
总之,此段代码整体上展示了如何构建 Transformer 模型,训练它进行机器翻译任务,并对其内部的注意力机制进行可视化,帮助我们了解模型是如何工作的。接下来,代码段处理解码器的两组注意力权重:解码器的自注意力权重和编码器-解码器之间的注意力权重。这将为每个头展示编码器-解码器注意力的热图,显示了当生成翻译的每个词元时,模型对输入句子中不同词元的关注分布。显示了解码器自注意力权重的热图,其中包括了当前词元和前面所有已生成的词元之间的关注关系。在代码的后面部分,实现了对注意力权重的可视化。原创 2024-05-23 07:42:40 · 1415 阅读 · 4 评论 -
自然语言推断与数据集代码解析
文本数据会被截断或补齐到一定长度。3. 实现`read_snli`函数,用于读取SNLI数据集,并将其解析为前提(premises)、假设(hypotheses)以及对应的标签(labels)。7. 定义`load_data_snli`函数,它使用上面定义的`SNLIDataset`类来创建训练和测试数据迭代器,同时返回构建的词汇表(vocab)。值得注意的是,这个代码的部分注释标签是`#@save`,这是d2l包中用于标记某个代码块或函数将会被保存并在后续使用中重新加载的一个特殊注释。原创 2024-05-22 08:22:19 · 695 阅读 · 1 评论 -
ROCm上运行预训练BERT
此外,由"#<save>"标记的部分,是保存函数定义的提示,便于以后的复用。请注意,由于硬件和软件的快速发展,具体的安装和配置步骤可能会随着时间而变化,因此建议查阅最新的ROCm和相关深度学习框架的官方文档。因此,在使用ROCm时可能会遇到一些挑战和限制。此外,由于ROCm和BERT都是不断发展的技术,建议您查阅最新的官方文档和社区讨论,以获取最准确的安装和运行指南。要在ROCm上运行预训练的BERT模型,您需要确保您的系统已经安装了支持ROCm的TensorFlow版本,并且已经正确配置了相关的环境。原创 2024-05-19 05:24:52 · 1163 阅读 · 1 评论 -
ROCm上运行自然语言推断:使用注意力
具体来说,如果你在PyTorch中实现或运行NLI模型,并且想要确保它能在ROCm环境下运行,你需要确保安装了PyTorch的ROCm版本,并且所有使用到的功能和算子都是ROCm兼容的。因此,在ROCm上进行开发可能需要更多的实验和调试。看起来你可能在尝试恢复一个自然语言推断(NLI)模型的训练或推理过程,该模型可能使用了注意力机制,并且是在ROCm平台上运行的。在ROCm(AMD的开源GPU加速计算平台)上运行自然语言推断(NLI)任务,特别是使用注意力机制,通常涉及深度学习模型的构建和训练。原创 2024-05-19 05:16:46 · 1061 阅读 · 0 评论 -
ROCm上运行自然语言推断:微调BERT
SNLIBERTDataset类处理SNLI数据库的数据,用于BERT的使用,分词数据集中的前提和假设,并创建相应的令牌ID和段ID作为模型的输入。- 使用`d2l`的`train_ch13`函数来训练模型,传入定义的网络、训练和测试迭代器、损失函数、训练器、训练周期数和设备配置。10. 使用定义的训练迭代器、损失函数、优化器以及`d2l`提供的训练工具来对SNLI数据库中的BERT分类器模型进行训练。2. 从指定的`d2l.DATA_HUB`下载预训练模型(BERT基础版和BERT小型版)。原创 2024-05-17 07:09:21 · 1031 阅读 · 0 评论 -
ROCm上运行深度卷积神经网络(AlexNet)
如果你要在支持ROCm的AMD GPU上运行深度学习模型(例如AlexNet),你需要确保ROCm已经安装在你的系统中,并且PyTorch与ROCm兼容。它使用PyTorch框架中的API来实现,并且模仿了AlexNet的一般结构,这是一个著名的网络结构,常用于图像识别任务。然而,确保环境设置正确是至关重要的。3. 查看各层输出:通过遍历网络的每一层,输入一个随机生成的数据`X`(尺寸为1x1x224x224,代表一批大小为1的224x224像素的单通道图像),并打印各层的输出形状。原创 2024-05-17 07:02:59 · 820 阅读 · 0 评论 -
win10用pip安装mxnet-cu101、mxnet-cu102
pip --default-timeout=1000 install --upgrade mxnet-cu101 -i https://pypi.tuna.tsinghua.edu.cn/simple/或者pip install --pre mxnet-cu101 -i https://pypi.douban.com/simple。。。参考:https://blog.youkuaiyun.com/mod_13/article/details/105490656https://blog..原创 2021-01-13 18:20:32 · 3153 阅读 · 3 评论 -
Win10编译gpu mxnet
安装CUDA和cudnn后,开始编译mxnet。1. 下载源码git clone --recursive https://github.com/apache/incubator-mxnet mxnet或者用代理:git clone --recursive https://g.0x6.xyz/https://github.com/apache/incubator-mxnet mxnet如果子模块下载慢,修改.gitmodules文件,使子模块用代理:[submodule "3rdpa原创 2021-02-18 13:16:05 · 566 阅读 · 2 评论 -
mxnet安装
以上步骤涵盖了在不同操作系统和配置下安装MXNet的基本流程。在安装过程中,请确保遵循适用于您系统的特定指南,并根据需要选择合适的CPU或GPU版本的MXNet。安装完成后,您可以通过运行测试脚本来验证MXNet是否正确安装并配置【3】【4】。原创 2024-04-10 08:00:56 · 1484 阅读 · 0 评论 -
ubuntu20安装mxnet gpu参考汇总
The setup of nvidia.persistenced is formulated as follows.1. check the status of nvidia-persistenced$ sudo systemctl status nvidia-persistenced2. Enable nvidia-persistenced$ sudo systemctl enable nvidia-persistenced3. Reboot for execution$ sudo原创 2021-03-06 09:07:16 · 538 阅读 · 1 评论 -
深度学习知识点全面总结
随着研究的深入,还会有更多高级的模型和算法被开发出来,推动深度学习技术的进步,以解决更加复杂的问题。深度学习是机器学习领域中的一个新方向,主要是通过学习样本数据的内在规律和表示层次,让机器能够具有类似于人类的分析学习能力。神经网络(Neural Networks):这是深度学习的基础,由大量的神经元(或称为节点)按照不同的层次组织起来,每个神经元都与前一层的所有神经元相连。深度学习是机器学习的一个分支,它通过构建多层的神经网络来模拟人脑处理信息的方式,从而实现对复杂数据的高效处理和分析。原创 2024-05-13 08:02:31 · 1366 阅读 · 2 评论 -
train_gpt2_fp32.cu
例如。原创 2024-05-10 07:55:52 · 833 阅读 · 2 评论 -
C语言写的LLM训练
特斯拉前 AI 总监、OpenAI 创始团队成员 Andrej Karpathy 用 C 代码完成了 GPT-2 大模型训练过程:karpathy/llm.c: LLM training in simple, raw C/CUDA (github.com)从HF-Mirror - Huggingface 镜像站下载gpt2模型:训练结果:测试结果:“真男人就应该用 C 编程”!大神用 1000 行 C 代码手搓了一个大模型-电子头条-EEWORLD电子工程世界llm.c代原创 2024-05-06 14:17:45 · 2347 阅读 · 1 评论 -
条件依赖性的方法示例
5个条件判断一件事情是否发生,每个条件可能性只有2种(发生或者不发生),计算每个条件对这件事情发生的影响力,条件之间有很强的依赖关系。原创 2024-05-03 04:19:18 · 1089 阅读 · 1 评论 -
不科学上网使用Hugging Face的Transformers库
总之,通过上述方法,即使不科学上网,也可以在国内正常使用Hugging Face的Transformers库进行自然语言处理相关的研究和开发工作。如果使用的是Docker,并且需要拉取Hugging Face的Transformers库的镜像,可能需要配置Docker以使用代理。此外,为了确保安装过程顺利,可以尝试通过清华大学的镜像源来安装所需的依赖包,这样可以加快下载速度并避免潜在的网络问题。通过上述方法,即使在没有互联网连接的情况下,也可以使用Hugging Face的Transformers库。原创 2024-05-01 10:58:57 · 4621 阅读 · 2 评论 -
OneFlow概念清单
OneFlow是一个开源的深度学习框架,它是由中国的一家公司——OneFlow Inc. 开发的,致力于提高大规模分布式训练的性能和效率。它提供了一种新颖的编程范式,旨在简化分布式系统的搭建过程,并提高资源的利用率。在OneFlow中,您会遇到以下一些核心概念:1. Tensor:类似于其他深度学习框架如PyTorch和TensorFlow的张量概念,Tensor是OneFlow中的基本数据结构,用于表示多维数组。它可以存储模型的输入数据、输出数据以及模型的参数。2. Operator(算子):在One原创 2024-04-29 06:56:08 · 1412 阅读 · 2 评论 -
线性神经网络示例
通过5个条件判定一件事情是否会发生,5个条件对这件事情是否发生的影响力不同,计算每个条件对这件事情发生的影响力多大,写一个线性神经网络模型pytorch程序,最后打印5个条件分别的影响力。原创 2024-04-27 08:36:01 · 964 阅读 · 4 评论 -
卷积神经网络
它可以从原始数据(如基因组序列、蛋白质序列等)中学习特征,实现数据的高效表示,自动学习特征以减轻人工特征工程的负担,预测蛋白质的三维结构,分析生物路径径等,从而帮助我们更好地理解基因组结构和功能、蛋白质的功能和疾病机制以及生物过程和疾病机制。但请注意,这种方法有些牵强,因为CNN并不是专门设计来处理这种类型的数据的。通过5个条件判定一件事情是否会发生,5个条件对这件事情是否发生的影响力不同,计算每个条件对这件事情发生的影响力多大,写一个卷积神经网络模型pytorch程序,最后打印5个条件分别的影响力。原创 2024-04-27 08:18:57 · 1041 阅读 · 0 评论 -
详解Al作画算法原理
AI作画算法还可以根据文本描述生成图像,举个例子,OpenAI的DALL·E和DALL·E 2就是这样的系统,它们可以将文本描述转换为相应的图像。综上所述,AI作画算法原理涉及到深度学习中的生成模型、条件生成、跨模态学习等多个关键技术,通过大规模数据驱动的训练过程,使得AI系统能够在给定输入条件下创造出令人信服的艺术作品。值得注意的是,除了GAN之外,还有其他生成模型,比如变分自编码器(VAEs),流模型(Flow-based models)等,但GANs因其能够生成高清、高质量的图像而特别有名。原创 2024-04-25 07:54:10 · 2651 阅读 · 5 评论 -
常见经典目标检测算法
针对单阶段检测器在分类和定位任务上的不平衡问题,提出了Focal Loss,有效缓解了背景类样本对模型训练的影响,提高了对难分类样本的学习能力,使得RetinaNet在保持高检测速度的同时,精度达到了与两阶段检测器相当的水平。YOLO以其高效的速度受到广泛关注。SSD结合了YOLO的速度和Faster R-CNN的准确性,通过在不同分辨率的特征图上使用不同大小的滤波器来直接预测边界框和类别概率,提高了目标检测的速度和效果。这些算法在目标检测领域都取得了显著的成绩,为后续的研究和应用提供了坚实的基础。原创 2024-04-23 08:28:13 · 3740 阅读 · 1 评论 -
循环神经网络
通过5个条件判定一件事情是否会发生,5个条件对这件事情是否发生的影响力不同,计算每个条件对这件事情发生的影响力多大,写一个循环神经网络模型pytorch程序,最后打印5个条件分别的影响力。原创 2024-04-22 06:55:02 · 1248 阅读 · 1 评论 -
深度神经网络(DNN)
通过5个条件判定一件事情是否会发生,5个条件对这件事情是否发生的影响力不同,计算每个条件对这件事情发生的影响力多大,写一个深度神经网络(DNN)模型程序,最后打印5个条件分别的影响力。原创 2024-04-21 21:53:16 · 1348 阅读 · 1 评论 -
pytorch与深度学习
PyTorch是一个由Facebook AI Research Team开发的开源深度学习库,它提供了一个灵活的环境和丰富的API,用于快速且方便地构建、训练和部署深度学习模型。综上所述,PyTorch 凭借其灵活的动态图机制、强大的张量运算与自动求导、丰富的深度学习模块以及活跃的社区支持,已成为深度学习研究与应用开发的首选工具之一。2. 优秀的社区和生态系统:有着活跃的社区和广泛的支持,PyTorch提供了大量的预训练模型和工具,这些模型和工具涵盖了图像识别、自然语言处理等多个领域。原创 2024-04-17 07:11:52 · 2122 阅读 · 5 评论 -
NLP预训练模型-GPT-3
不过,如果您要在支持Radeon GPU的机器上使用预训练的NLP模型(类似GPT-3),您可以使用支持ONNX模型的机器学习库,如ONNX Runtime,并尝试将模型转换为ONNX格式,有可能利用MIGraphX的一些优化。总结而言,GPT-3是一款具有里程碑意义的大型预训练语言模型,其创新之处在于通过前所未有的模型规模、先进的Transformer架构以及高效的无监督预训练方法,实现了卓越的零样本学习能力和广泛的应用潜力,对自然语言处理领域产生了深远影响。GPT-3通过无监督学习的方式进行预训练。原创 2024-04-17 07:09:28 · 1394 阅读 · 0 评论