- 博客(141)
- 资源 (3)
- 收藏
- 关注
原创 【动手学深度学习】5.6. GPU
本文介绍了如何利用GPU进行高性能计算,包括单GPU和多GPU配置。主要内容包括:1)使用nvidia-smi命令查看GPU信息;2)在PyTorch中指定计算设备(CPU/GPU)的方法;3)张量在不同设备间的存储和传输。重点强调了多设备操作时需确保数据在同一设备上,并演示了如何通过设备复制实现跨GPU计算。文中还提供了查询可用GPU数量和异常处理的实用函数,为深度学习任务中的GPU加速提供了基础指导。
2025-08-20 07:32:53
937
原创 【动手学深度学习】5.5. 读写文件
本文介绍了PyTorch中保存和加载张量及模型参数的方法。主要内容包括:1)使用torch.save和torch.load读写单个张量、张量列表和字典;2)保存模型参数而非整个模型对象,通过state_dict保存网络参数,加载时需要先重建模型架构再加载参数;3)强调保存架构需通过代码实现。这些方法可用于模型持久化、中断恢复等场景,确保训练成果不丢失。
2025-08-20 07:32:22
764
原创 Linux中使用Qwen模型:Qwen Code CLI工具
安装或升级 Node.js:使用 nvm 管理,环境变量可以添加到~/.bashrc中永久生效。出现以下内容,即可通过在命令行输入问题,使用Qwen Code CLI进行交互了。在Linux中使用Qwen模型,可以安装Qwen Code 命令行工具来使用。设置您的 Qwen API 密钥(在 Qwen Code 项目中,您也可以在。非中国大陆,可以通过阿里云modelstuido平台使用Qwen模型。中国大陆,可以通过阿里云百炼平台使用Qwen3-Coder。模型进行了优化,并增强了解析器支持和工具支持。
2025-08-02 11:04:50
1120
原创 Windows中使用Qwen模型:VSCode+Cline
配置模型api:设置内容 Base URL(阿里API地址)、OpenAl Compatible API Key(阿里API Key)、Model ID(模型名称)。安装cline:打开VSCode,进入扩展商店(Ctrl/Cmd+Shift+X),搜索“cline”安装。登录cline:点击"Get Started for Free",跳转到谷歌邮箱登录网页进行登录。打开cline设置:点击VSCode左侧cline图标,点击设置按钮(齿轮图标)。声明:资源可能存在第三方来源,若有侵权请联系删除!
2025-08-02 11:00:34
517
原创 VSCode:通义灵码插件安装使用 -- 免费AI编程工具
通义灵码是阿里云推出的AI智能编码助手,基于通义大模型,支持多语言代码续写、优化、注释生成、单元测试创建、智能问答等多种功能,实现高效智能编程体验。VSCode作为主流编辑器,支持通过插件快速接入通义灵码,以下是详细安装和使用步骤。声明:资源可能存在第三方来源,若有侵权请联系删除!
2025-08-01 21:53:23
603
原创 OpenVLA: 论文阅读 -- 开源视觉-语言-行动模型
现有机器人操作策略的主要弱点是无法泛化至训练数据集之外的场景。相比之下,CLIP、SigLIP、Llama 2等视觉语言基础模型得益于互联网规模的预训练,具备更强的泛化能力。由此,利用现成的视觉语言基础模型作为核心组件,构建可泛化至新物体、场景和任务的机器人策略。已有探索将预训练语言和视觉语言模型用于机器人表征学习,或作为模块化系统组件用于任务规划与执行。更进一步,直接用于训练视觉-语言-动作模型(VLA)以实现控制。
2025-08-01 21:31:35
1128
原创 Qwen3-Coder:介绍及使用 -- 超强AI编程助手
阿里发布的系列最强版本:Qwen3-Coder-480B-A35B-Instruct。该模型为 480B 总参数、35B 激活的 MoE 架构,原生支持 256K 上下文,可通过 YaRN 扩展至 1M token。在 Agentic Coding、Browser-Use 和 Tool-Use 上达到开源模型 SOTA,媲美 Claude Sonnet4。
2025-07-29 20:03:46
1487
原创 VLA--Gemini Robotics On-Device: 将AI带到本地机器人设备上
Safari SDK 提供了使用 Gemini Robotics 模型系列中的所有模型所需的完整生命周期工具,包括但不限于,访问检查点、部署模型、在机器人和模拟环境中评估模型、上传数据、微调模型、下载微调后的检查点等。这里,展示了 Gemini Robotics On-Device 在涉及针对新模型进行微调的任务上,如何优于当前的最好设备端 VLA。在双臂 Franka 机器人上,该模型执行通用指令跟随,包括处理先前未见过的物体和场景,完成折叠衣服等灵巧任务,或执行需要精确度和灵巧性的工业皮带组装任务。
2025-07-29 20:02:30
1429
原创 博客自动发布:优快云
启动chrome,输入chrome://version 检测 --remote-debugging-port=9222 是否出现在页面上。如果是windows,在chrome的快捷方式后面加上 --remote-debugging-port=9222 参数。(可以从这里下载chrome for testing版本,专门用来自动化测试。切记,发布博客前,先保证账号是登录状态,否则无法发布。声明:资源可能存在第三方来源,若有侵权请联系删除!这里记录以下平台实际实现:优快云。,支持一键把你的博客发到。
2025-07-19 11:13:33
325
原创 VLA--Gemini_Robotics: 论文阅读 -- 直接控制机器人的视觉-语言-动作(VLA)模型
Gemini Robotics:一个直接控制机器人的视觉-语言-动作(VLA)通用模型,Gemini Robotics 建立在 Gemini Robotics-ER 模型之上。Gemini Robotics-ER:一个有具身推理能力的VLM模型。将 Gemini 的多模态推理能力扩展到物理世界,增强了空间和时间理解。
2025-07-19 09:36:03
1152
原创 【动手学深度学习】4.9. 环境和分布偏移
.机器学习应用常被忽视数据来源和模型输出处理。许多模型在测试集上表现好,但数据分布改变时会部署失败,甚至模型决策本身可能破坏数据分布(如贷款模型基于“穿牛津鞋就会还款”决策,导致所有人都穿牛津鞋但信用未提升)。解决这些问题需多方面的思考和方法,如优化数据、强化学习、考虑算法伦理等,以提升机器学习系统的可靠性和适应性。.分布偏移指训练与测试数据分布不同,如训练数据来自分布 pS(x,y)p_S(\mathbf{x}, y)pS(x,y),测试数据来自 pT(x,y)p_T(\mathbf{x}, y)pT
2025-07-09 20:55:27
973
原创 【动手学深度学习】4.8. 数值稳定性和模型初始化
此外,当反向传播通过许多层时,除非我们在刚刚好的地方, 这些地方sigmoid函数的输入接近于零,否则整个乘积的梯度可能会消失。模型参数的初始化方案在神经网络学习中极为关键,它关乎数值稳定性、优化算法的收敛速度,还与非线性激活函数选择紧密相连,不当的初始化易导致梯度爆炸或消失。如果我们不指定初始化方法, 框架将使用默认的随机初始化方法,对于中等难度的问题,这种方法通常很有效。尽管在上述数学推理中,“不存在非线性”的假设在神经网络中很容易被违反, 但Xavier初始化方法在实践中被证明是有效的。
2025-06-26 08:00:00
257
原创 【动手学深度学习】4.7. 前向传播、反向传播和计算图
计算的顺序与前向传播中执行的顺序相反,因为我们需要从计算图的结果开始,并朝着参数的方向工作。因此,在训练神经网络时,在初始化模型参数后, 我们交替使用前向传播和反向传播,利用反向传播给出的梯度来更新模型参数。前向传播在神经网络定义的计算图中按顺序计算和存储中间变量,它的顺序是从输入层到输出层。反向传播按相反的顺序(从输出层到输入层)计算和存储神经网络的中间变量和参数的梯度。另一方面,反向传播期间参数的梯度计算, 取决于由前向传播给出的隐藏变量的当前值。在训练深度学习模型时,前向传播和反向传播是相互依赖的。
2025-06-24 22:22:27
1072
原创 【动手学深度学习】4.6. 暂退法(Dropout)
我们使用Fashion-MNIST数据集。定义具有两个隐藏层的多层感知机,每个隐藏层包含256个单元。我们可以将暂退法应用于每个隐藏层的输出(在激活函数之后), 并且可以为每一层分别设置暂退概率: 常见的技巧是在靠近输入层的地方设置较低的暂退概率。下面的模型将第一个和第二个隐藏层的暂退概率分别设置为0.2和0.5, 并且暂退法只在训练期间有效。# 只有在训练模型时才使用dropout# 在第一个全连接层之后添加一个dropout层# 在第二个全连接层之后添加一个dropout层return out。
2025-06-24 21:25:50
838
原创 【动手学深度学习】4.5. 权重衰减
范数是衡量向量或矩阵大小的一种度量,它是更一般的LpL_pLp范数的特殊情况。在机器学习中,范数可以用来衡量模型参数的大小。L2L_2L2范数:是向量中各元素平方和的平方根,用于衡量向量的大小。L1L_1L1范数:是向量中各元素绝对值的和,用于衡量向量的稀疏性。L2L_2L2下面的代码将模型拟合训练数据集,并在测试数据集上进行评估。从 3节以来,线性网络和平方损失没有变化, 所以我们通过d2l.linreg和导入它们。唯一的变化是损失现在包括了惩罚项。
2025-06-20 19:18:12
511
原创 【动手学深度学习】4.4. 模型选择、欠拟合和过拟合
因此,这个过于复杂的模型会轻易受到训练数据中噪声的影响。模型能否真正泛化很关键。在实际中,我们只能通过将模型应用于一个独立的测试集来估计泛化误差, 该测试集由随机选取的、未曾在训练集中出现的数据样本构成。(generalization error):模型应用在同样从原始样本的分布中抽取的无限多数据样本时,模型误差的期望。统计学家认为,能轻松解释任意事实的模型是复杂的,而表达能力有限但仍能解释数据的模型更有现实用途。哲学上,波普尔的可证伪性标准指出,能拟合数据且可被证伪的理论是好的,这强调了模型的可检验性。
2025-06-20 19:14:54
966
原创 【动手学深度学习】4.2~4.3 多层感知机的实现
与softmax回归的简洁实现相比, 唯一的区别是我们添加了2个全连接层(之前我们只添加了1个全连接层)。对于相同的分类问题,多层感知机的实现与softmax回归的实现相同,只是多层感知机的实现里增加了带有激活函数的隐藏层。训练过程的实现与我们实现softmax回归时完全相同, 这种模块化设计使我们能够将与模型架构有关的内容独立出来。为了确保我们对模型的细节了如指掌, 我们将实现ReLU激活函数, 而不是直接调用内置的。首先,我们将实现一个具有单隐藏层的多层感知机, 它包含256个隐藏单元。
2025-06-17 20:30:20
908
原创 【动手学深度学习】4.1. 多层感知机
当输入为负时,ReLU函数的导数为0,而当输入为正时,ReLU函数的导数为1。下面我们绘制ReLU函数的导数。应用于隐藏层的激活函数通常既按行操作,也按元素操作,意味着在计算每一层的线性部分后,可单独计算每个活性值,无需查看其他隐藏单元的值,多数激活函数如此。:以收入和还款概率为例,收入从低到中等增加,还款可能提升明显,而高收入段再增影响小,非线性,可对数据预处理(如取对数)使线性更合理。假设: 任何特征的增大都会导致模型输出的增大(如果对应的权重为正), 或者导致模型输出的减小(如果对应的权重为负)。
2025-06-17 12:31:51
1044
原创 【动手学深度学习】3.7. softmax回归的简洁实现
我们也希望保留传统的softmax函数,以备我们需要评估通过模型输出的概率。但是,我们没有将softmax概率传递到损失函数中,而是在交叉熵损失函数中传递未规范化的预测,并同时计算softmax及其对数,这是一种类似"LogSumExp技巧"的聪明方式。在许多情况下,深度学习框架在这些著名的技巧之外采取了额外的预防措施,来确保数值的稳定性。在前面, 我们计算了模型的输出,然后将此输出送入交叉熵损失。这与我们在线性回归例子中的相同,这说明了优化器的普适性。接下来,我们调用上一节中定义的训练函数,来训练模型。
2025-06-16 21:00:40
898
原创 【动手学深度学习】3.6. softmax回归的从零开始实现
给定一个矩阵X,我们可以对所有元素求和(默认情况下)。也可以只求同一个轴上的元素,即同一列(轴0)或同一行(轴1)。如果X是一个形状为(2, 3)的张量,我们对列进行求和, 则结果将是一个具有形状(3,)的向量。当调用sum运算符时,我们可以指定保持在原始张量的轴数,而不折叠求和的维度。这将产生一个具有形状(1, 3)的二维张量。# 输出:[15.]]))回想一下,实现softmax由三个步骤组成:对每个项求幂(使用exp对每一行求和(小批量中每个样本是一行),得到每个样本的规范化常数;
2025-06-16 20:55:40
1524
原创 【动手学深度学习】3.5. 图像分类数据集
Fashion-MNIST是一个服装分类数据集,由10个类别的图像组成。函数,获取Fashion-MNIST数据集,返回训练集和验证集的数据迭代器。现在已经准备好使用Fashion-MNIST数据集,便于下面的章节调用来评估各种分类算法。可以通过框架中的内置函数将Fashion-MNIST数据集下载并读取到内存中。通过内置数据迭代器,我们可以随机打乱了所有样本,从而无偏见地读取小批量。我们将使用Fashion-MNIST数据集,作为图像分类数据集。我们将高度像素,宽度像素图像的形状记为或(,)。
2025-06-13 21:59:04
386
原创 【动手学深度学习】3.3. 线性回归的简洁实现
在实现复杂模型时,使用框架预定义的层可以简化过程。我们定义一个模型变量net,它是Sequential类的实例,用于将多个层串联在一起。尽管当前模型仅包含一个层,但使用Sequential可以熟悉标准流程。全连接层(fully-connected layer)是单层网络架构,每个输入通过矩阵 - 向量乘法得到每个输出。在 PyTorch 中,全连接层在Linear类中定义,需要指定输入和输出特征形状。计算均方误差使用的是MSELoss类,也称为平方范数。默认情况下,它返回所有样本损失的平均值。
2025-06-10 20:55:15
854
原创 【动手学深度学习】3.2. 线性回归的从零开始实现
线性回归模型通过矩阵 - 向量乘法将输入特征X与权重w相乘,再加偏置 b 得到输出。广播机制会将标量 b 加到每个分量上。"""线性回归模型"""使用平方损失函数,同时,需将真实值 y 的形状转换为与预测值 y_hat 相同。"""均方损失"""采用小批量随机梯度下降(SGD),每步用随机抽取的小批量计算损失梯度,朝减少损失方向更新参数。更新大小由学习速率 lr 决定,用批量大小 batch_size 规范化步长。
2025-06-10 20:42:23
1150
原创 【动手学深度学习】3.1. 线性回归
另外,我们将更多的数学运算放到库中,而无须自己编写那么多的计算,从而减少了出错的可能性。损失函数(loss function):用于衡量目标实际值与预测值之间的差距,通常为非负数,且数值越小表示损失越小,完美预测时损失为 0。(gradient descent)是一种通用的优化方法,通过计算损失函数关于模型参数的导数(梯度),沿着梯度递减方向更新参数以降低误差。对于复杂模型(如深度神经网络),损失平面上存在多个最小值,实践中更关注找到在未见数据上低损失的参数组合,即实现良好的。
2025-06-06 21:16:13
870
原创 C++:回调函数
是一种以函数指针作为参数的函数。这种函数可以在代码的其他部分被调用,从而实现一种类似高级编程语言中的“回调”机制。是一种编程模式,它允许将代码(函数)作为参数传递给其他函数,并在特定事件发生后被调用。
2025-06-01 20:18:42
290
原创 【动手学深度学习】2.5. 自动微分
来使用,而不是用来计算梯度的变量。这时,就可以用“分离计算图”的方法,把计算图中的一部分“切断”,让它不参与反向传播。换言之,对于任何a,存在某个常量标量k,使得f(a)=k*a,其中k的值取决于输入a;神经网络中,计算图 = 节点(神经元/参数/数学运算等)+ 边(数据流动方向)。这里,我们的目的不是计算微分矩阵,而是单独计算批量中每个样本的偏导数之和。它从输出端(损失函数)开始,向输入端(模型参数)反向计算梯度。有时,我们希望将某些计算移动到记录的计算图之外。,自动计算出目标函数关于模型参数的导数。
2025-05-30 23:01:42
2119
MSP430数据手册+用户手册中英文
2020-10-18
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人