自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(33)
  • 收藏
  • 关注

原创 【ros2安装】ROS学习笔记

参考:Ubuntu安装ROS(2) —— 安装ROS2 humble(最新、超详细图文教程,包含配置rosdep)_ros2安装-优快云博客

2024-12-25 11:45:56 230

原创 【SolidWorks转URDF】ROS学习笔记

这里子装配体最好与想要生成的urdf的link形状保持一致,否则在选择link包含的零部件时,需要选择一大堆,如果装配成子装配体了,那么只需要旋转一个子装配体就行了。在装配体->参考几何体中选择坐标系,坐标系的原点设置为参考坐标原点,再选择旋转轴来设置z轴、x轴,系统会自动确定y轴。在装配体->参考几何体中选择点,再通过旋转轴的交点等方式为每个link设置参考坐标原点。在装配体->参考几何体中选择基准轴,再通过曲面确定基准轴的方式,给关节对应的link设置旋转轴。,用于指定joint的旋转轴和坐标原点。

2024-12-19 19:28:23 528

原创 【moveit!】ROS学习笔记

该位姿的机器人姿态是六轴角度都处于0位置的位置,可以理解为是机器人的初始位姿。再点击“Add Links”按钮,在左侧选 择gripper group需要包含的三个link,在右侧的机器人模型中可以看到选 中的link变成了红色。如果机器 人是移动的,则虚拟关节可以与移动基座关联,但这里设计的机械臂是 固定不动的,所以无需设置虚拟关节。launch文件中是各种启动文件,最主要的是move_group.launch,各种demo都是调用这个文件,是moveit运行的核心文件。首先创建机械臂本体的arm组。

2024-11-28 10:13:02 505

原创 【anaconda】使用记录

window11 下安装anaconda。

2024-11-05 15:28:12 397

原创 【git】使用记录

一、安装。

2024-11-05 14:27:50 546

原创 【VMware】使用笔记

win11支持16.2以上版本,其他版本不兼容。

2024-11-03 08:35:07 432

原创 【ros1安装】ROS学习笔记

有时候旧的构建文件可能会导致问题。

2024-10-13 15:22:44 191

原创 【常用命令】ROS学习笔记

1、查看msg的结构。

2024-09-22 17:51:15 232

原创 【rviz】ROS学习笔记

1、.rviz配置文件的导出(1)创建urdf文件(2)创建launch启动文件,在文件中指定urdf、rviz配置文件(3)使用launch文件启动rviz,调整rviz界面的配置,在file,save as中将当前页面配置保存为.rviz文件。(4)替换launch中的.rviz文件,之后再启动rviz就是按照.rviz中的配置来默认加载。2、rviz加载模型的原理。

2024-09-22 17:29:47 979

原创 机器学习笔记1

待补充。

2024-09-18 20:51:36 317

原创 linux使用记录

1、创建文件并输入内容。

2024-09-16 08:07:14 199

原创 Datawhale 李宏毅苹果书 AI夏令营 笔记3

AdaGrad(Adaptive Gradient)是典型的自适应学习率方法,它能够根据梯度大小自动调整学习率.当梯度比较大的时候减小学习率,当梯度比较小的时候放大学习率。动量法的好处:即使梯度方向向左,由于引入动量,前一步的影响力比梯度大,则球还是可能往右滚,甚至翻过一个小山丘,来更好的局部最小值。每次在移动参数的时候,不是只往梯度的反方向移动参数,而是根据梯度的反方向加上前一步移动的方向决定移动方向。3、对于任意θ,L(θ)有时候大于L(θ`),有时候小于L(θ`),则L(θ`)是鞍点。

2024-09-03 21:54:09 331

原创 Datawhale 李宏毅苹果书 AI夏令营 笔记2

这种方法通过减少神经元之间的相互依赖性,提高模型的泛化能力,进而提升在未见过的数据上的表现。假设有N个模型,将N个模型在这K次训练验证得到的结果平均起来,看哪个模型的结果最好,则是最优模型。其实就是模型把训练集的样本学的太好了,把训练集中一些细枝末节的,不属于总体特征的信息学习到了;可训练简单机器学习模型,看能得到多低的损失,再训练灵活性更高的深度学习网络,若深度学习网络损失更高,则存在优化问题。可通过比较不同层数模型的损失函数值来判断,若高层数的模型比低层数的模型的损失值更大,则存在优化问题。

2024-08-31 23:20:45 375

原创 Datawhale 李宏毅苹果书 AI夏令营 笔记1

常见的Hard Sigmoid函数形式为hard_sigmoid(x) = max(0, min(1, (x + 3) / 6)),也有定义为hard_sigmoid(x) = max(0, min(1, (x * 0.2 + 0.5))),或者更简单地,它在-2.5和2.5之间进行线性变换,并在这两个临界点之外分别返回0和1。sigmoid函数表达式y=c / (1 + e^-(b+wx)),其中输入为x,输出为y,c为常数。梯度下降优化法,L(b,w)对b,w求微分,通过学习率更新b,w。

2024-08-27 23:40:22 334

原创 Datawhale 夏令营第四期 大模型应用技术开发 笔记3

待补充。

2024-08-21 22:41:56 154

原创 Datawhale 夏令营第四期 AIGC 笔记3

ComfyUI 是GUI的一种,是基于节点工作的用户界面,主要用于操作图像的生成技术,ComfyUI 的特别之处在于它采用了一种模块化的设计,把图像生成的过程分解成了许多小的步骤,每个步骤都是一个节点。在Stable Diffusion模型中,UNet接收由VAE编码器产生的噪声和文本编码器转换的文本向量作为输入,并预测去噪后的噪声,从而生成与文本描述相符的图像。Stable Diffusion的基本原理是通过降噪的方式(如完全的噪声图像),将一个原本的噪声信号变为无噪声的信号(如人可以理解的图像)。

2024-08-17 16:11:39 713

原创 Datawhale 夏令营第四期 大模型应用技术开发 笔记2

待补充。

2024-08-14 21:48:19 383

原创 Datawhale 夏令营第四期 大模型应用技术开发 笔记2

待补充组队情况、选题情况、方案计划等内容。

2024-08-13 23:07:46 131

原创 Datawhale X 魔搭 AI夏令营 第四期 AIGC 笔记1

待补充。

2024-08-11 22:13:24 422

原创 Datawhale 夏令营第四期 大模型应用技术开发 笔记1

为了解决这一问题,研究者提出了参数高效微调(Parameter-efficient Fine-tuning),也称为轻量化微调 (Lightweight Fine-tuning),这些方法通过训练极少的模型参数,同时保证微调后的模型表现可以与全量微调相媲美。代表性工作:word2vec。预训练过程中还涉及诸多细节,诸如数据配比、学习率调度、模型行为监测等,这些往往缺乏公开的最佳实践指导,需要研发团队具备深厚的训练经验与故障排查能力,以规避训练过程中的回溯与重复迭代,节约计算资源,提高训练效率。

2024-08-11 20:44:25 685

原创 Datawhale 夏令营第三期 机器学习 笔记3

4.采用学习率调度策略:在训练模型的过程中,我们发现往往约到后面,需要更小的学习率。例如下图:学习到后面,我们需要收敛的局部最小值点的两边都比较“窄”,如果现在学习率太大,那么在梯度下降的时候,就有可能翻过局部最小点了。引入在注意力机制中:查询 $$q_{i}(Query)$$ ,键 $$k_{i}(Key)$$ ,值 $$v_{i}(Value)$$。这个过程中,与RNN不同的是,在Transformer的嵌入层,会在词嵌入中加入位置编码(Positional Encoding)。

2024-08-03 22:22:59 1678

原创 Datawhale 夏令营第三期 机器学习 笔记2

RNN(Recurrent Neural Network)是处理序列数据的一把好手。RNN的网络每层除了会有自己的输出以外,还会输出一个隐向量到下一层。归为机器学习的一个子集,主要通过神经网络学习数据的特征和分布。深度学习的一个重要进化是不再需要繁琐的特征工程,让神经网络自己从里面学习特征。有待进一步加强RNN的原理理解和pytorch用法的学习。注:离散值通过一些处理可以近似认为是连续值。由于没有调整参数,最后得分:-0.0330。模型预测的结果是离散的值。模型预测的结果是连续的值。

2024-07-31 23:44:01 210

原创 Datawhale 夏令营第三期 机器学习 笔记1

初赛数据集仅包含碳氮成键类型反应数据,其中训练集中包含23538条反应数据,测试集中包含2616条反应数据。训练集与测试集的比例接近9:1。其中 Reactant1 , Reactant2 , Product , Additive , Solvent 字段中为对应物质的SMILES字符串,Yield字段为目标字段,是经过归一化的浮点数。结果分析:树个数为10,深度为10,由于树是按照特征不断进行划分的,深度为10的划分对分类不够全面。回归问题:即预测的结果是连续的值。分类问题:预测的结果是离散的值。

2024-07-28 00:25:40 225

原创 Datawhale 夏令营 机器学习 笔记3

以两层为例,第一层由多个基学习器组成,其输入为原始训练集,第二层的模型则是以第一层基学习器的输出作为特征加入训练集进行再训练,从而得到完整的stacking模型。1. 将训练集中的四个标签外加真实标签当作五列新的特征作为新的训练集,选取一个训练模型,根据新的训练集进行训练,然后应用测试集的四个标签组成的测试集进行预测作为最终的result。2. 尝试不同的模型:模型间存在很大的差异,预测结果也会不一样,比赛的过程就是不断的实验和试错的过程,通过不断的实验寻找最佳模型,同时帮助自身加强模型的理解能力。

2024-07-20 23:11:00 1834

原创 Datawhale 夏令营 机器学习 笔记2

LightGBM(Light Gradient Boosting Machine)是一个实现GBDT算法的框架,支持高效率的并行训练,并且具有更快的训练速度、更低的内存消耗、更好的准确率、支持分布式可以快速处理海量数据等优点。通常应用于二分类、多分类和排序等场景。窗口统计可以构建不同的窗口大小,然后基于窗口范围进统计均值、最大值、最小值、中位数、方差的信息,可以反映最近阶段数据的变化情况。如下图所示,可以将d-1时间的信息给到d时间,d时间信息给到d+1时间,这样就实现了平移一个单位的特征构建。

2024-07-18 11:03:26 370

原创 Datawhale 夏令营 机器学习 笔记1

赛题数据由训练集和测试集组成,为了保证比赛的公平性,将每日日期进行脱敏,用1-N进行标识,即1为数据集最近一天,其中1-10为测试集数据。type=electricity-demand&ch=dw24_uGS8Gs竞赛页面,上传submit.csv文件,提交结果,更新分数。点击运行全部cell按钮,运行模型,生成结果(submit.csv文件)在项目大厅页面,右上角点击运行一下,运行项目。运行后,点击启动环境,启动运行模型所需的环境。查看或修改main.ipynb代码,优化模型。baseline代码。

2024-07-13 20:01:07 379

原创 python学习笔记5

Bad Style:在知道循环范围的情况下使用 while,应该用for循环。合理的剪枝,缩小搜索范围/循环范围,可以大幅提高程序运行效率。range(x, y) 是左闭右开区间,包含 x,不包含 y。当你不知道循环什么时候停下来的时候,为什么不试试 while。在不知道循环什么时间停止的时候,应该试试 While 循环。基于提供的范围,重复执行特定次数的操作。For 循环用于指定范围的重复操作。continue # 跳过这次循环。break # 跳出当前整个循环。循环同样也是可以嵌套的。

2024-06-26 18:47:50 234

原创 强化学习笔记2

时序差分是介于蒙特卡洛和动态规划之间的方法,它是免模型的,不需要马尔可夫决策过程的转移矩阵和奖励函数。时序差分方法的目的是对于某个给定的策略 π,在线(online) 地算出它的价值函数 Vπ,即一步一步地(step-by-step)算。Sarsa 是一种同策略(on-policy)算法,它优化的是它实际执行的策略,它直接用下一步会执行的动作去优化 Q 表格。在无法获取马尔可夫决策过程的模型情况下,我们可以通过蒙特卡洛方法和时序差分方法来估计某个给定策略的价值。蒙特卡洛方法只能在有终止的情况下学习。

2024-06-22 23:48:04 157

原创 python学习笔记4

我们使用函数名来调用函数,函数名后紧跟一对括号,括号中是我们设定的参数的值,一个不多,一个不少(这很重要),函数会返回设定的 return 语句的值。编写函数是用来解决问题的,我们还可以编写函数来存储那些经常被用到的一系列操作,这种函数就叫做 Helper Function。如果我们想要修改 g 的值,我们必须声明它是全局变量,global g,则 Python 会假设它是局部变量。函数内的变量具有局部作用域,它只存在于函数内部,与其他函数中的同名变量无关。函数是一个名字,代表一串代码序列(流程、过程)

2024-06-22 16:36:06 368

原创 python学习笔记3

算术:+, -, *, @, /, //, **, %, - (一元算符), + (一元算符)inf,浮点正无穷大,等价于 float('inf'),负无穷大使用 -math.inf。tau,数学常数 τ = 6.283185...,精确到可用精度(其实它不常用)/ 指的是浮点数除法,它的结果是一个浮点数,例如 2/1 的结果是 2.0。赋值: +=, -=, *=, /=, //=, **=, %=// 指的是整除除法,它的计算结果是整数,舍弃余数。关系:<, <=, >=, >, ==,!

2024-06-20 15:20:43 312

原创 RL学习笔记1

备份类似于自举之间的迭代关系,对于某一个状态,它的 当前价值是与它的未来价值线性相关的。强化学习的目的就是最大化智能体可以获得的奖励,智能体在环境里面存在的目 的就是最大化它的期望的累积奖励(expected cumulative reward)。采用确定性策略的智能体总是对同样的状态采取相同的动作,这会导致它的策略很容易被对手预测。一个策略 π(a|s) 在状态 s 达到了最优价值, 也就是 Vπ(s) = V ∗ (s) 成立,当且仅当对于任何能够从 s 到达的 s ′,都已经达到了最优价值。

2024-06-20 00:04:37 467

原创 python学习笔记2

示例:name = input("输入你的名字:") print("あなたの名前は", name, "です") 输入你的名字: zhuyan あなたの名前は zhuyan です。多行注释,使用 ''' 或 """ 包裹起来(头和尾都是 3 个),单引号(')与双引号(")在 Python 中并无太大区别。print("Data", "whale", sep="*"),输出为Data*whale。可以在结尾加上 split(),默认分隔参数是空格,可以更改,如:split(",")

2024-06-18 17:10:01 203

原创 python学习笔记1

git clone https://github.com/datawhalechina/learn-python-the-smart-way-v2 --depth=1 # --depth=1 的作用是只下载最新版本的代码文件。conda activate p2s # 激活 p2s 环境,不同环境的 Python 包版本不同!conda create -n p2s python=3.10 # conda 环境创建。conda remove -n p2s --all # 删除整个环境。四、Git下载课程资料。

2024-06-17 21:33:30 1496

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除