人工智能
文章平均质量分 92
指掀涛澜天下惊
指掀涛澜天下惊,抚筝百载,清绝吾命。何必挑弦与谁听,昂首万里,江山无人。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
AI 基础知识七 数据集与循环神经网络RNN
RNN专门用于处理序列数据的神经网络模型,它广泛应用于自然语言处理、语音识别、时间序列预测等领域,通过循环来处理序列,但在处理长序列时可能存在梯度消失或爆炸的问题,它的改良版本::通过引入遗忘门、输入门和输出门,解决了长序列中的梯度消失问题。:结构更简单,计算效率更高,同时保持了对长序列依赖的建模能力。:结合前向和后向信息流,增强了对序列全局信息的理解。原创 2025-12-15 08:00:00 · 905 阅读 · 0 评论 -
AI 基础知识六 libtorch构建卷积神经网络
本章用libtorch来构建一个简单的卷积神经网络,一个用10X10矩阵数据来代表一个数字[0~9]数字识别例子,相对用mnist数据集来做要简单很多,如数字8测试数据矩阵向右偏移一位 如测试数字8 ,0表示黑色,1表示白色,简单看成10X10像素图片识别。原创 2025-12-01 08:15:00 · 678 阅读 · 0 评论 -
AI 基础知识五 卷积神经网络(CNN)概述
举例子来说明,假设有输入序列数据 [1, 2, 3, 4, 5] 和 一组权重数据 [1, 0, 1],做以下运算输出结果:[4, 6, 8]像这样的计算叫[1, 0, 1]叫,长度==3用 libtorch实现卷积运算代码如果想要输出结果与输入数据长度一样,在原始数据左右两边填充0 如下[0,1, 2, 3, 4, 5,0] 与 [1, 0, 1]做以下运算输出结果:[2, 4, 6, 8, 4]把这个叫一般是填充0用 libtorch实现卷积运算代码。原创 2025-11-19 14:45:51 · 995 阅读 · 0 评论 -
AI 基础知识四 torch入门基础
要实现自定义求导通过继承torch::autograd::Function,定义前向传播(forward)和反向传播(backward)逻辑代码,假设我们要实现一个自定义函数,它的导数1. 前向传播(forward):实现的计算,用上下文torch::autograd::AutogradContext保存x值 给反向传播求导时使用2. 反向传播(backward):实现导数计算从 前向传播 取当时x值,这个好理解。原创 2025-11-14 11:04:09 · 613 阅读 · 0 评论 -
AI 基础知识三 libtorch构建神经网络
详情见官网描述:,这里简单总结一下:1. torch 可以认为有两个前端版本,一个是Python前端,而另一个是c++(libtorch)前端2. libtorch前端适用于低延迟、高性能或 多线程环境的场景比如视频游戏或生产服务器场景3. libtorch文档、教程、示例相对比较少,官网更推荐使用Python前端4. 人个觉得两者有很多共通的知识点差别不大,从libtorch入门也是一个不错的选择。原创 2025-11-10 08:30:00 · 1630 阅读 · 0 评论 -
AI 基础知识二 神经网络概述
其实第一章用代码实现了一神经网络的核心功能,本章补充一些概念,总结一下训练神经网络模型过程是1.前向计算传播1.1加权求和2.2激活函数2.3向下一层传送,直到输出层2. 计算损失函数3. 反向传播,设置学习率策略,梯度下降目前我们用代码实现一个简单样例,如果网络层数增多、更换算法,再比如需要硬件加速计算(GPU)等等,从0开始实现是一件低效率的事,因此要寻找到好用的开源库。原创 2025-09-29 10:56:08 · 1030 阅读 · 0 评论 -
AI 基础知识一 神经网络
神经网络是一种模拟人脑神经元连接的计算模型,通过多层神经元的非线性变换和数据驱动的权重调整,实现对复杂模式的学习。它是复杂模型(机器学习,深度学习)的核心基础。一个或多个神经元相互连接组成一个形成复杂的网络叫神经网络。神经元也可以叫节点。神经元有两个重要工作一个加权求和(线性回归另一个激活函数(非线性变换)。原创 2025-08-11 08:30:00 · 847 阅读 · 0 评论
分享