- 博客(36)
- 收藏
- 关注
原创 机器人领域中的AI
机器人控制算法划分1.基于模型的控制算法(LIPM+ZMP)2.动态模型控制+最优控制算法(MPC+WBC)3.模拟+强化学习 (AI人员研究)李飞飞 团队研究成果 VoxPoser ,使用LLM+VLM, 从3D空间分析出目标和环境障碍,帮助机器人实现行动规划,让真实机器人在未经训练的情况下直接执行任务。VoxPoser:Composable 3D Value Maps for Robotic Manipulation with Language Models 2023基于扩散模型的机器人动作生成策
2025-01-23 10:51:25
1191
原创 解决容器挂载目录后,生成新镜像挂载目录消失方法
借鉴:https://fancyerii.github.io/books/tfserving-docker/docker exec -it tfserving /bin/bash 进入容器内部。这个是模型部署时,使用tensorflow server加速的命令。目的:想要把本地模型封装进去,不要用挂载的形式。因为这个要在本地模型目录下加载。#vgg,进入vgg上级目录。
2024-05-29 15:10:47
327
原创 python处理--错误异常
<class ‘Exception’>(‘spam’, ‘eggs’)(‘spam’, ‘eggs’)x = spamy = eggs
2023-10-07 21:38:54
152
原创 py开头的两行以及标准库
这是一个"shebang"或"hashbang"行,通常位于脚本文件的开头。它告诉操作系统应该使用哪个解释器来执行这个脚本。/usr/bin/env是一个在Unix和Linux系统上常见的工具,它用于在环境变量中查找指定的程序。在这里,它被用于查找Python 3的解释器。python3是指定要使用的Python版本。这意味着该脚本应该由Python 3解释器来执行。#-这是一个字符编码声明,用于告诉Python解释器脚本中使用的字符编码方式。在这里,它指定了使用UTF-8编码。
2023-10-07 21:29:43
178
原创 python迭代器,生成器
yield和return不同的是return完程序结束,yield不会结束函数,直到遇到StopIteration。迭代器协议:内部含有__next__()和__iter__方法就是迭代器。例如:一个列表执行了__iter__()之后返回值就是一个迭代器。可迭代协议:只要含有__iter__方法都是可迭代的。yield和next配合可以控制生成器函数的执行。
2023-10-06 10:14:35
119
原创 多进程启动方式
join() 用法 可以起多个进程异步执行,然后规定在。(而不是随着主进程的结束而结束)而结束就叫。以上虽然实现了多进程并发但还没有调优。感知子进程结束,将异步程序改为同步。完成时,使用join()进程与进程之间的数据是隔离的。
2023-10-06 10:12:28
180
原创 window+WSL+ubuntu-LTS+mysql使用
刷新权限,exit 退出mysql连接,即可使用root登录。密码要复杂一点大小写英文数字和符号,不然设置不成功。-> value(1,2,3)😉 表中插入数据。root用户密码,linux安装完默认有密码。show tables查看数据库中的表名。连接上后,设置root用户名字和密码,use dhj 定位到dhj数据库。查看root用户host地址。使用其连接mysql的服务。,开启mysql的服务。显示默认用户名和密码。
2023-10-06 10:11:29
188
原创 优化 -- 梯度下降
所以,样本的随机性会带来很多噪声,我们可以选取一定数目的样本组成一个小批量样本,然后用这个小批量更新梯度,这样不仅可以减少计算成本,还可以提高算法稳定性。随机梯度下降虽然提高了计算效率,降低了计算开销,但是由于每次迭代只随机选择一个样本,因此随机性比较大,所以下降过程中非常曲折。在机器学习\深度学习中,目标函数的损失函数通常取各个样本损失函数的平均。梯度下降使用整个训练数据集来计算梯度,因此它有时也被称为批量梯度下降。所以,根据计算量大小来选择梯度下降算法进行优化。
2023-07-14 15:27:17
83
原创 python装饰器
如@timmer,就相当于写了func=timmer(func)没有语法糖就需要人为加上这句。在被装饰的函数上面紧邻着写@装饰器函数名字。装饰器的英文是wrappper。用了之后代码便捷简单。
2023-04-18 14:08:55
81
原创 python网络编程
当Server端也发送了FIN报文段时,这个时候就表示Server端也没有数据要发送了,就会告诉Client端,我也没有数据要发送了,之后彼此就会愉快的中断这次TCP连接。由于TCP连接是全双工的,因此,每个方向都必须要单独进行关闭,这一原则是当一方完成数据发送任务后,发送一个FIN来终止这一方向的连接,收到一个FIN只是意味着这一方向上没有数据流动了,即不会再收到数据了,但是在这个TCP连接上仍然能够发送数据,直到这一方向也发送了FIN。UDP用户数据报协议,是一个简单的面向数据报的运输层协议。
2023-04-14 17:04:32
138
原创 A Multi-task Learning Framework for Opinion Triplet Extraction (EMNLP 2020)阅读记录
阅读记录
2022-09-24 19:01:21
588
原创 A Robustly Optimized BMRC for Aspect Sentiment Triplet Extraction阅读笔记
ASTE论文阅读
2022-09-07 10:59:23
726
原创 Neural Machine Reading Comprehension: Methods and Trends阅读(19年论文)
关键信息摘要(1)典型的 MRC 任务:它们的定义、差异和代表性数据集;(2)神经 MRC 的一般架构:主要模块和流行方法(3) 新趋势:神经 MRC 的一些新兴领域以及相应的挑战。 遗留的未解决问题,设想未来可能会发生什么介绍机器阅读理解 (MRC) 是一项测试机器理解自然语言程度的任务。可以通过要求机器根据给定的上下文回答问题来理解自然语言,这有可能彻底改变人类和机器交互的方式,带有MRC技术的搜索引擎可以直接使用自然语言将正确的答案返回,而不是一系列相关网页的用户提出的问题。此外,配备了M
2022-05-05 20:07:07
310
原创 torch.cumsum(),torch.sum()
dtype声明为torch.long则数据类型为int 64torch.tensor 默认为torch.FloatTensor是32位浮点类型数据
2022-01-10 16:15:41
1351
原创 tensor.detach(),item(),cpu(),tolist(),numpy()
cuda上面的变量类型只能是tensor,不能是其他1.detach()Returns a new Tensor, detached from the current graph. The result will never require gradient.返回一个新的Variable,从当前计算图中分离下来的,但是仍指向原变量的存放位置,不同之处只是requires_grad为false,得到的这个Variable永远不需要计算其梯度,不具有grad。当我们再训练网络的时候可能希望保持一部分
2022-01-06 21:17:36
5320
原创 pytorch——TensorDataset,DataLoader
from torch.utils.data import TensorDataset, DataLoadertrain_data = TensorDataset(all_input_ids, all_input_mask, all_segment_ids, all_start_positions, all_end_positions, all_example_index)train_dataloader = DataLoader(train_data, sampler=train_sampler, b
2022-01-04 20:13:03
1313
原创 Bert预训练模型
之前的:基于特征(feature-based)ELMO 预训练的表示作为附加特征基于微调( fine-tuning)GPTBERT(Bidirectional Encoder Representation from Transformers)2018年提出基于深层transformer的预训练语言模型。利用无标注文本挖掘语义信息BERT_BASE (L=12, H=768, A=12, Total Param-eters=110M) and BERT_LARGE (L=24, H=1024,A
2022-01-04 19:35:07
2682
原创 Python内置函数getattr(),hasattr(),enumerate()
1.getattr() 函数用于返回一个对象属性值>>>class A(object):... bar = 1... >>> a = A()>>> getattr(a, 'bar') # 获取属性 bar 值1>>> getattr(a, 'bar2') # 属性 bar2 不存在,触发异常Traceback (most recent call last): File "<.
2022-01-01 21:35:29
585
原创 nn.LSTM()关键参数,torch.squeeze()和torch.unsqueeze()
初始化config是配置文件self.lstm=nn.LSTM(config.hidden_size,config.rnn_hidden_size,config.num_layers,batch_first=True,dropout=config.dropout,bias=True,bidirectional=True)参数input_size :输入数据的形状hidden_size:LSTM网络每层节点的LSTM节点数量num_layer:LSTM网络的网络层数bias:LSTM是否包含b
2021-12-26 15:53:38
1189
原创 刚开始使用anaconda命令的集合
anaconda命令1.首先需要下载好anaconda网上很多教程2.windows +R ,输入cmd进入终端3.接下来创建一个虚拟环境1.创建虚拟环境的命令 conda create -n 自己的环境名字(英文) python=3.6 (python版本根据需要下载)比如,我要建一个pytorch环境,则可以:conda create -n torch python=3.6这时就创建好了一个虚拟环境2.查看自己有几个虚拟环境conda env list或者,直接到anacond
2021-12-17 17:36:09
1203
原创 查看自己的网络结构
查看网络BertForJointSpanExtractAndClassification( (bert): BertModel( (embeddings): BertEmbeddings( (word_embeddings): Embedding(30522, 768, padding_idx=0) (position_embeddings): Embedding(512, 768) (token_type_embeddings): Embedding(2,
2021-12-05 21:13:52
1905
原创 SpanBERT论文阅读记录
原文链接https://aclanthology.org/2020.tacl-1.5/1. 摘要spanBERT extends BERT by(1) masking contiguousrandom spans, rather than random tokensmask连续随机跨度,不是随机tokens(2) training the span boundary represen-tations to predict the entire content of themasked s
2021-11-04 16:15:42
403
原创 Softmax和LogSoftmax(使用过程中的记录)
Softmax函数常用的用法是指定参数dim(1)dim=0:对每一列的所有元素进行softmax运算,并使得每一列所有元素和为1。(2)dim=1:对每一行的所有元素进行softmax运算,并使得每一行所有元素和为1。LogSoftmax 对softmax的结果进行log,即Log(Softmax(x))...
2021-11-03 09:21:01
5627
原创 tmux一些命令
查看机器上GPU情况命令: nvidia-smi功能:显示机器上gpu的情况命令: nvidia-smi -l功能:定时更新显示机器上gpu的情况
2021-10-31 16:49:59
572
原创 BIO数据一个字一行,变成成一句话一行
path = 'data/test.txt' #文本存放的路径with open(path,encoding='utf-8') as file: lines = file.readlines() # 读取每一行a = ''#空字符(中间不加空格)with open('data/test_re.txt', 'w', encoding='utf-8') as p: for line in lines: a = line.strip() # strip()是去掉每行
2021-10-28 21:40:14
182
原创 txt 按行合并python代码
txt 按行合并python代码import os, sys#按行合并file1path = 'Chinese/2.txt'file2path = 'Chinese/test.txt'file_1 = open(file1path,'r',encoding='utf-8')file_2 = open(file2path,'r',encoding='utf-8')list1 = []for line in file_1.readlines(): ss = line.strip()
2021-10-28 21:13:54
393
空空如也
没有sudo权限,在conda环境中执行,怎么解决
2025-02-26
TA创建的收藏夹 TA关注的收藏夹
TA关注的人