- 博客(117)
- 收藏
- 关注
原创 model_MTS2ONet
return outnn.Tanh()return outreturn outreturn out# encoder# center# decoder# encoder# center# decoder# outputnn.Mish(),nn.Mish(),nn.Mish(),
2025-01-16 20:46:27
670
原创 coformer
else:return outreturn embreturn x# diff])return outreturn xdim = 32nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),if adjust:else:if adjust:else:if adjust:else:if adjust:else:
2024-11-22 21:14:25
620
原创 11202326
class adjust_net(nn.Module): def __init__(self, out_channels=64, middle_channels=32): super(adjust_net, self).__init__() self.model = nn.Sequential( nn.Conv2d(2, middle_channels, 3, padding=1), nn.ReLU(inplace=
2024-11-20 23:26:50
228
原创 predict3
print(f"预测结果 - Value1: {predicted[0]:.6f}, Value2: {predicted[1]:.6f}, Value3: {predicted[2]:.6f}")print(f"预测结果 - Value1: {predicted[0]:.6f}, Value2: {predicted[1]:.6f}")aa_input = input("请输入氨基酸组合(例如 'A'、'AC'、'ACD'),输入 'exit' 退出:").strip().upper()
2024-11-18 21:53:18
524
原创 acl论文记录2021-2022
Prefix-Tuning: Optimizing Continuous Prompts for GenerationGPT-NeoX-20B: An Open-Source Autoregressive Language ModelGLM: General Language Model Pretraining with Autoregressive Blank InfillingLayoutLMv2: Multi-modal Pre-training for Visually-Rich Docume
2024-11-16 13:52:27
486
原创 202411112301
assert out_channels % num_heads == 0, "out_channels 必须是 num_heads 的倍数"
2024-11-11 23:02:02
392
原创 11112024
assert out_channels % num_heads == 0, "out_channels 必须是 num_heads 的倍数"nn.BatchNorm2d(branch_channels) # 为什么还要加bn。# 这里尝试在多尺度时间卷积上加入自注意力机制效果。# 这里的是所有的结果concat,dim=1。
2024-11-11 22:40:24
367
原创 atttention1111
assert out_channels % num_heads == 0, "out_channels 必须是 num_heads 的倍数"nn.BatchNorm2d(branch_channels) # 为什么还要加bn。# 这里尝试在多尺度时间卷积上加入自注意力机制效果。# 这里的是所有的结果concat,dim=1。
2024-11-11 22:24:31
981
原创 point_pn3
FPS# kNNdepth=12,):Block(x = blk(x)return xexpand = 2expand = 1# Linear# Linear# Pooling# )self.actself.act# Weigh# FPS, kNN# Poolingreturn x。
2024-11-09 17:04:02
786
原创 point_nn2_1109
FPS# kNNdepth=12,):Block(x = blk(x)return xexpand = 2expand = 1# Linear# Linear# Pooling# )self.actself.act# Weigh# FPS, kNN# Poolingreturn x。
2024-11-09 11:40:03
837
原创 main的修改
parser.add_argument('--disc_ckpt', type=str, default='pretrained/Discriminator.pth', help='鉴别器预训练权重路径')parser.add_argument('--gen_ckpt', type=str, default='pretrained/CIPSAtt.pth', help='生成器预训练权重路径')img_gen_clamped = img_gen.clamp(0, 1) # 将生成的图像限制在0到1之间。
2024-11-08 23:44:42
306
原创 run_pn_mn40_1.py
import osimport os])else:print(str)# Modelelse:printf(printf(total = 0return {net.eval()total = 0return {main()
2024-11-08 22:20:35
942
原创 point_nn2
FPS# kNNdepth=12,):Block(x = blk(x)return xexpand = 2expand = 1# Linear# Linear# Pooling# )self.actself.act# Weigh# FPS, kNN# Poolingreturn x。
2024-11-08 17:56:58
943
原创 point_pn1_Attention
FPS# kNNdepth=12,):Block(x = blk(x)return xexpand = 2expand = 1# Linear# Linear# Pooling# )self.actself.act# Weigh# FPS, kNN# Poolingreturn x。
2024-11-08 09:44:59
908
原创 point_pn1
FPS# kNNexpand = 2expand = 1# Linear# Linear# Poolingself.actself.act# Weigh# FPS, kNN# Poolingreturn xreturn xreturn x。
2024-11-08 09:06:10
714
原创 pointnet3
FPS# kNN# Poolingnn.GELU())# Weigh# FPS, kNN# Poolingreturn xreturn x。
2024-11-07 09:57:36
495
原创 pointnet2
FPS# kNN# Poolingnn.GELU())# Weigh# FPS, kNN# Poolingreturn xreturn x。
2024-11-07 09:53:42
755
原创 pointnet02
FPS# kNN# Poolingnn.GELU(),# Weigh# FPS, kNN# Poolingreturn xreturn x。
2024-11-07 09:42:52
523
原创 20241105demo6
return embreturn x# diff])return outreturn xdim = 32nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),if adjust:else:if adjust:else:if adjust:else:if adjust:else:return outelse:return out。
2024-11-05 21:16:55
697
原创 sdnet
########################## 空间注意力机制 ###########################running_loss += loss.item() # 累加损失以计算平均损失。# 实例化学习率调度器 #diff 添加学习率调度器。# 使用 kaiming_normal_ 进行初始化。# 实例化学习率调度器 #diff 添加学习率调度器。# 注册钩子 #diff 注册前向钩子以提取特征图。# 实例化模型、损失函数和优化器。# 重新实例化模型以确保权重是新的。
2024-11-04 14:22:44
462
2
原创 gl2222
img_name = row['ID'] + '.png' # 添加扩展名。# 创建一个ImageDataGenerator用于加载和预处理图像。# 输入参数:图像文件目录和骨龄信息CSV文件路径。# 使用 sklearn 自动划分训练集和验证集。# 将整数值转换为浮点数,以便进行后续处理。# 提取InceptionV3的最后一层。# 确保id列的值为字符串类型。# 创建训练和验证数据生成器。# 定义早停和学习率衰减回调。# 读取骨龄信息CSV文件。# 添加额外的全连接层。
2024-11-03 19:42:53
372
原创 gulingmae
print(f"训练集样本数: {len(train_subset)}, 验证集样本数: {len(val_subset)}")print(f"Val MAE 未改善 ({trigger_times}/{patience})")print(f"最佳模型已保存 (Val MAE: {best_val_mae:.4f})")print(f"训练完成,最佳验证 MAE: {best_val_mae:.4f}")print(f"总样本数: {len(dataset)}")print("准备数据集...")
2024-11-03 10:57:26
671
原创 guling1103
print(f"训练集样本数: {len(train_subset)}, 验证集样本数: {len(val_subset)}")print(f"Val Loss 未改善 ({trigger_times}/{patience})")print(f"最佳模型已保存 (Val Loss: {best_val_loss:.4f})")print(f"训练完成,最佳验证损失: {best_val_loss:.4f}")print(f"无法处理图像 {img_path}: {e}")也可以结合 StepLR。
2024-11-03 10:14:23
865
原创 glguling
feature_extractor = nn.Sequential(*list(resnet.children())[:-1]) # 移除最后一层。print(f"Val Loss 未改善 ({trigger_times}/{patience})")print(f"最佳模型已保存 (Val Loss: {best_val_loss:.4f})")print(f"训练集样本数: {len(X_train)}, 验证集样本数: {len(X_val)}")print("提取图像特征...")
2024-11-02 20:02:03
788
原创 gl预测ll
feature_extractor = nn.Sequential(*list(resnet.children())[:-1]) # 移除最后一层。feature_extractor = nn.Sequential(*list(resnet.children())[:-1]) # 移除最后一层。print(f"最佳模型已保存 (Val Loss: {best_val_loss:.4f})")print(f"训练集样本数: {len(X_train)}, 验证集样本数: {len(X_val)}")
2024-11-01 22:15:14
582
原创 corediff_ud
return embreturn x# diff])return outreturn xdim = 32nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),if adjust:else:if adjust:else:if adjust:else:if adjust:else:return outelse:
2024-10-31 09:23:31
604
原创 dcgan
labels_file = r"C:\Users\sun\Desktop\2024102201\1\labels.txt" # 标签文件路径。output_dir = r"C:\Users\sun\Desktop\2024102201\out" # 生成图像保存路径。noise_dim = 100 # 噪声维度。label_dim = 58 # 标签维度。batch_size =8 # 批大小。
2024-10-30 21:49:46
659
原创 corediff2
return embreturn outif in_ch!= out_ch:else:return x# diff])return outreturn xdim = 32nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),if adjust:else:if adjust:else:if adjust:else:
2024-10-30 21:42:24
1123
原创 corediffpro
return embreturn x# diff])return outreturn xdim = 32nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),
2024-10-30 20:08:28
744
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人