
学习笔记
文章平均质量分 90
学习笔记
MorleyOlsen
a normal undergraduate student striving for a luck
展开
-
【LLM】LLM原理与实践(总结汇总)
【信息理论、英语的熵、n-gram模型】原创 2025-03-19 13:24:07 · 834 阅读 · 0 评论 -
【ChatGPT原理与应用开发】第七章:缺陷不足
此处仅为学习记录和总结。原创 2025-01-04 16:59:53 · 495 阅读 · 0 评论 -
【ChatGPT原理与应用开发】第六章:工程实践
此处仅为学习记录和总结。原创 2025-01-04 16:10:34 · 991 阅读 · 0 评论 -
【ChatGPT原理与应用开发】第五章:复杂推理
复杂推理:在处理复杂问题时运用逻辑、推断和推理能力,从已知信息中得出新的结论或解决问题的过程🤔常见的思维技巧和方法逻辑推理演绎推理:从一般原理推导出特定结论归纳推理:从特定案例推导出一般原理分析和综合比较和对比推断和假设反向推理模式识别和归纳问题解决策略反思和调整。原创 2025-01-04 14:36:15 · 1021 阅读 · 0 评论 -
【ChatGPT原理与应用开发】第四章:文本生成
文本摘要:用精炼的文本来概括整篇文章的大意文本摘要技术🤔实现方法抽取式摘要原文档中提取现成的句子压缩式摘要过滤原文档的冗余信息,压缩文本生成式摘要基于NLG,算法模型根据原文档生成描述基于openai接口的文本摘要🤔通过接口生成文本摘要的方法调用预训练模型基于自定义语料微调CSL摘要数据集论文摘要和标题数据,包含3500条数据标题数据的平均字数为18,字数标准差为4,最大字数为41,最小数字为6。原创 2025-01-03 21:18:57 · 890 阅读 · 0 评论 -
【ChatGPT原理与应用开发】第三章:句词分类
例如:W由3个子矩阵组成,分别是w1、w2和w3。原创 2025-01-01 15:44:43 · 1521 阅读 · 0 评论 -
【ChatGPT原理与应用开发】第二章:相似匹配
此处仅为学习记录和总结。原创 2024-12-30 21:55:38 · 701 阅读 · 0 评论 -
【Android Debug Bridge】adb常用指令(更新中)
ADB(Android Debug Bridge)是一个强大的命令行工具,用于与连接的Android设备进行通信。5:查看本地N条日志并存储到相应路径,假设N=1000,路径为D盘根目录。2:查看当前连接PC的安卓设备编号。6:获取安卓设备的root权限。4:挂载monkey进程。原创 2024-12-03 20:52:09 · 796 阅读 · 0 评论 -
【代码分析】Unet-Pytorch
主要包含:【1】double conv,双层卷积【2】down,下采样【3】up,上采样【4】out conv,输出卷积=》卷积。卷积核是3*3,填充是1=》批归一化。=》ReLU。激活函数=》卷积。卷积核是3*3,填充是1=》批归一化。=》ReLU。激活函数【2】down=》最大池化。池化核是2*2【3】up=》上采样。可选择upsample + double conv 和 transpose + double conv=》计算尺寸差异。=》填充x1。使得x1和x2对齐。原创 2024-12-29 17:02:25 · 1429 阅读 · 0 评论 -
【CS231n】Python Tutorial
整型,浮点型(支持算数运算)布尔型(支持逻辑运算:与and、或or、非not、异或!=)字符型。原创 2024-10-23 20:56:55 · 1014 阅读 · 0 评论 -
【学术讲座】视觉计算中的深度学习方法 & AIGC图像视频生成模型的推理加速
强化学习、LLM等:有监督 && 无监督的结合。原创 2024-11-23 16:08:18 · 1197 阅读 · 0 评论 -
【经典论文阅读】NeRF(神经辐射场,neural radiance fields)
输入:空间位置(3维)+ 视角方向(2维)输出:体积密度 + RGB颜色。原创 2024-11-23 22:01:28 · 1619 阅读 · 0 评论 -
【经典论文阅读】Transformer(多头注意力 && 编码器-解码器)
完全舍弃循环 recurrence 和卷积 convolutions只依赖于attention mechanisms。原创 2024-11-28 13:43:51 · 1519 阅读 · 0 评论 -
【经典论文阅读】DDPM(Diffusion)
高质量图像合成a novel connection between diffusion probabilistic models (扩散概率模型) and denoising score (去噪分数) matching with Langevin dynamics (朗之万动力学)渐进的有损解压方案 a progressive lossy decompression scheme ==> 自回归解码的推广(autoregressive decoding)原创 2024-12-08 15:57:10 · 1381 阅读 · 0 评论 -
【经典论文阅读】Latent Diffusion Models(LDM)
动机:在有限的计算资源下进行扩散模型训练,同时保持质量和灵活性引入跨注意力层,以卷积方式实现对一般条件输入(如文本或边界框)的响应以及高分辨率合成。原创 2024-12-10 19:51:10 · 2818 阅读 · 0 评论 -
【ChatGPT原理与应用开发】第一章:基础科普
此处仅为学习记录和总结。原创 2024-12-29 22:01:24 · 779 阅读 · 0 评论 -
【PyTorch】7-生态简介
注:所有资料来源且归属于thorough-pytorch(https://datawhalechina.github.io/thorough-pytorch/),下文仅为学习记录The torchvision package consists of popular datasets, model architectures, and common image transformations for computer vision.常用库:包含在计算机视觉中常见的数据集例如:包含数据预处理方法和数据增强方法T原创 2024-05-05 22:54:37 · 1192 阅读 · 1 评论 -
【PyTorch】6-可视化(网络结构可视化、CNN可视化、TensorBoard、wandb)
注:所有资料来源且归属于thorough-pytorch(https://datawhalechina.github.io/thorough-pytorch/),下文仅为学习记录。原创 2024-05-05 17:06:46 · 1059 阅读 · 0 评论 -
【PyTorch】5-进阶训练技巧(损失函数、学习率、模型微调、半精度训练、数据增强、超参数设置)
PyTorch在torch.nn模块提供了许多常用的损失函数,比如:MSELoss,L1Loss,BCELoss非官方提供的Loss,比如:DiceLoss,HuberLoss,SobolevLoss损失函数仅是一个函数如果看每一个损失函数的继承关系,可以发现Loss函数部分继承自_loss,部分继承自,而继承自_loss_loss继承自nn.Module。损失函数类需要继承自nn.Module类。【案例:DiceLoss】应用:分割DiceLoss2∣X∩Y∣∣X。原创 2024-05-05 14:48:05 · 1025 阅读 · 0 评论 -
【PyTorch】4-模型定义(Sequential、ModuleList/ModuleDict、模型块组装、修改模型、模型保存和读取)
Module类是torch.nn模块里提供的一个模型构造类 (nn.Module),是网络模型的基类。原创 2024-05-05 13:21:35 · 1205 阅读 · 0 评论 -
【PyTorch】3-基础实战(ResNet)
退化现象(degradation):增加网络层数的过程中,随着训练准确率逐渐饱和,继续增加层数,训练准确率出现下降的现象。且这种下降不是过拟合。快捷连接(shortcut connection):将输入直接连接到后面的层,一定程度缓解了梯度消失和梯度爆炸,消除深度过大导致神经网络训练困难的问题。梯度消失和梯度爆炸的根源:DNN结构,和,反向传播算法梯度爆炸:网络层之间的梯度(值大于 1.0)重复相乘导致的指数级增长梯度消失:网络层之间的梯度(值小于 1.0)重复相乘导致的指数级变小。原创 2024-04-24 17:54:59 · 862 阅读 · 0 评论 -
【PyTorch】2-主要组成模块(数据读入、模型构建、损失函数、评价指标、训练和测试、优化器)
注:所有资料来源且归属于thorough-pytorch(https://datawhalechina.github.io/thorough-pytorch/),下文仅为学习记录。原创 2024-04-21 21:48:18 · 1256 阅读 · 0 评论 -
【PyTorch】1-基础知识(张量、导数、CUDA)
注:所有资料来源且归属于thorough-pytorch(https://datawhalechina.github.io/thorough-pytorch/),下文仅为学习记录。原创 2024-04-21 19:20:55 · 1340 阅读 · 0 评论