1
我之前一直苦恼于环境配置的问题,最近我发现了一条命令可以自动导出虚拟环境中的包的版本。conda env export > environment.yml。另外我还发现deepseek不能深度思考,一深度思考就完蛋。
2
def train_per_epoch(self, optimizer):
self.model.train()
for data_in, pearson, label, pseudo in self.train_dataloader:
label = label.long()
data_in, pearson, label, pseudo = data_in.to(
device), pearson.to(device), label.to(device), pseudo.to(device)
inputs, nodes, targets_a, targets_b, lam = mixup_data(
data_in, pearson, label, 1, device)
[output, score], learnable_matrix, edge_variance = self.model(inputs, nodes, pseudo)
loss = 2 * mixup_criterion(
self.loss_fn, output, targets_a, targets_b, lam)
if self.group_loss:
loss += mixup_cluster_loss(learnable_matrix,
targets_a, targets_b, lam)
# loss += 0.001*topk_loss(score, self.pool_ratio)
self.train_loss.update_with_weight(loss.item(), label.shape[0])
optimizer.zero_grad()
loss.backward()
optimizer.step()
top1 = accuracy(output, label)[0]
self.train_accuracy.update_with_weight(top1, label.shape[0])
self.edges_num.update_with_weight(edge_variance, label.shape[0])
for data_in, pearson, label, pseudo in self.train_dataloader:我之前看这句的时候我脑子里就是空空的,这个train_dataloader到底是啥。我又重新输出了一下,data_in就是输入数据,(1009, 111, 100)1009就是1009个受试者,111个脑区,100个时间点。pearson是皮尔逊积差相关系数,pseudo就是偏相关系数
inputs, nodes, targets_a, targets_b, lam = mixup_data(
data_in, pearson, label, 1, device)
我终于看懂这段代码是做什么的了,我觉得有两个方面的效果,一个是为了训练出来的模型健壮性好,不是单单针对一个数据集的,第二是训练出来一个好的模型。举个例子来说,data_in是一个三维向量,比如说现在有两个实验者A和B,A和B的脑区都有111区域,每个区域又有100个时间节点。那么mixup_data就是把A的数据取一部分出来,比如取个七成,然后再从B的数据取三成出来,这样就拼成了一个数据集C。
这个项目的代码真的很完整,读的我都读不下去了,我还有一个转换器的项目,我去看看那个吧