自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(117)
  • 收藏
  • 关注

原创 model_MTS2ONet

return outnn.Tanh()return outreturn outreturn out# encoder# center# decoder# encoder# center# decoder# outputnn.Mish(),nn.Mish(),nn.Mish(),

2025-01-16 20:46:27 670

原创 train12012152

print(f"模型已保存到 {model_save_path}")

2024-12-01 21:52:40 705

原创 git status 用不了了

再次git status。

2024-11-27 17:33:16 186

原创 eurecom-ds/scoresdeve-ema-conditional-celeba-hq-64

.images。

2024-11-23 14:06:13 549

原创 pix2pix

import PIL。

2024-11-23 01:26:04 222

原创 coformer

else:return outreturn embreturn x# diff])return outreturn xdim = 32nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),if adjust:else:if adjust:else:if adjust:else:if adjust:else:

2024-11-22 21:14:25 620

原创 11202326

class adjust_net(nn.Module): def __init__(self, out_channels=64, middle_channels=32): super(adjust_net, self).__init__() self.model = nn.Sequential( nn.Conv2d(2, middle_channels, 3, padding=1), nn.ReLU(inplace=

2024-11-20 23:26:50 228

原创 predict3

print(f"预测结果 - Value1: {predicted[0]:.6f}, Value2: {predicted[1]:.6f}, Value3: {predicted[2]:.6f}")print(f"预测结果 - Value1: {predicted[0]:.6f}, Value2: {predicted[1]:.6f}")aa_input = input("请输入氨基酸组合(例如 'A'、'AC'、'ACD'),输入 'exit' 退出:").strip().upper()

2024-11-18 21:53:18 524

原创 acl论文记录2021-2022

Prefix-Tuning: Optimizing Continuous Prompts for GenerationGPT-NeoX-20B: An Open-Source Autoregressive Language ModelGLM: General Language Model Pretraining with Autoregressive Blank InfillingLayoutLMv2: Multi-modal Pre-training for Visually-Rich Docume

2024-11-16 13:52:27 486

原创 202411112301

assert out_channels % num_heads == 0, "out_channels 必须是 num_heads 的倍数"

2024-11-11 23:02:02 392

原创 11112024

assert out_channels % num_heads == 0, "out_channels 必须是 num_heads 的倍数"nn.BatchNorm2d(branch_channels) # 为什么还要加bn。# 这里尝试在多尺度时间卷积上加入自注意力机制效果。# 这里的是所有的结果concat,dim=1。

2024-11-11 22:40:24 367

原创 atttention1111

assert out_channels % num_heads == 0, "out_channels 必须是 num_heads 的倍数"nn.BatchNorm2d(branch_channels) # 为什么还要加bn。# 这里尝试在多尺度时间卷积上加入自注意力机制效果。# 这里的是所有的结果concat,dim=1。

2024-11-11 22:24:31 981

原创 20241111uuuu

diff: 通过EMA模块处理conv1的输出。# diff: 通过EMA模块处理conv2的输出。

2024-11-11 22:22:04 915

原创 unet20241110

diff: 通过EMA模块处理conv1的输出。# diff: 通过EMA模块处理conv2的输出。

2024-11-10 11:41:30 710

原创 point_pn3

FPS# kNNdepth=12,):Block(x = blk(x)return xexpand = 2expand = 1# Linear# Linear# Pooling# )self.actself.act# Weigh# FPS, kNN# Poolingreturn x。

2024-11-09 17:04:02 786

原创 point_nn2_1109

FPS# kNNdepth=12,):Block(x = blk(x)return xexpand = 2expand = 1# Linear# Linear# Pooling# )self.actself.act# Weigh# FPS, kNN# Poolingreturn x。

2024-11-09 11:40:03 837

原创 main的修改

parser.add_argument('--disc_ckpt', type=str, default='pretrained/Discriminator.pth', help='鉴别器预训练权重路径')parser.add_argument('--gen_ckpt', type=str, default='pretrained/CIPSAtt.pth', help='生成器预训练权重路径')img_gen_clamped = img_gen.clamp(0, 1) # 将生成的图像限制在0到1之间。

2024-11-08 23:44:42 306

原创 run_pn_mn40_1.py

import osimport os])else:print(str)# Modelelse:printf(printf(total = 0return {net.eval()total = 0return {main()

2024-11-08 22:20:35 942

原创 point_nn2

FPS# kNNdepth=12,):Block(x = blk(x)return xexpand = 2expand = 1# Linear# Linear# Pooling# )self.actself.act# Weigh# FPS, kNN# Poolingreturn x。

2024-11-08 17:56:58 943

原创 point_pn1_Attention

FPS# kNNdepth=12,):Block(x = blk(x)return xexpand = 2expand = 1# Linear# Linear# Pooling# )self.actself.act# Weigh# FPS, kNN# Poolingreturn x。

2024-11-08 09:44:59 908

原创 point_pn1

FPS# kNNexpand = 2expand = 1# Linear# Linear# Poolingself.actself.act# Weigh# FPS, kNN# Poolingreturn xreturn xreturn x。

2024-11-08 09:06:10 714

原创 pointnet4

FPS# kNN# Pooling# Weigh# FPS, kNN# Poolingreturn xreturn x。

2024-11-07 10:41:11 494

原创 pointnet3

FPS# kNN# Poolingnn.GELU())# Weigh# FPS, kNN# Poolingreturn xreturn x。

2024-11-07 09:57:36 495

原创 pointnet2

FPS# kNN# Poolingnn.GELU())# Weigh# FPS, kNN# Poolingreturn xreturn x。

2024-11-07 09:53:42 755

原创 pointnet02

FPS# kNN# Poolingnn.GELU(),# Weigh# FPS, kNN# Poolingreturn xreturn x。

2024-11-07 09:42:52 523

原创 point_nn

Poolingnn.GELU())# Weigh# FPS, kNN# Poolingreturn xreturn x。

2024-11-06 13:23:40 947

原创 demo601

diff: 通过EMA模块处理conv1的输出。# diff: 通过EMA模块处理conv2的输出。

2024-11-06 09:48:42 235

原创 20241105demo6

return embreturn x# diff])return outreturn xdim = 32nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),if adjust:else:if adjust:else:if adjust:else:if adjust:else:return outelse:return out。

2024-11-05 21:16:55 697

原创 sdnet

########################## 空间注意力机制 ###########################running_loss += loss.item() # 累加损失以计算平均损失。# 实例化学习率调度器 #diff 添加学习率调度器。# 使用 kaiming_normal_ 进行初始化。# 实例化学习率调度器 #diff 添加学习率调度器。# 注册钩子 #diff 注册前向钩子以提取特征图。# 实例化模型、损失函数和优化器。# 重新实例化模型以确保权重是新的。

2024-11-04 14:22:44 462 2

原创 res_model

yt_1 = torch.randn(B, 1, H, W) # 确保 yt_1 不是 None。

2024-11-04 14:02:04 630

原创 res_model

yt_1 = torch.randn(B, 1, H, W) # 确保 yt_1 不是 None。

2024-11-04 12:02:56 895

原创 gl2222

img_name = row['ID'] + '.png' # 添加扩展名。# 创建一个ImageDataGenerator用于加载和预处理图像。# 输入参数:图像文件目录和骨龄信息CSV文件路径。# 使用 sklearn 自动划分训练集和验证集。# 将整数值转换为浮点数,以便进行后续处理。# 提取InceptionV3的最后一层。# 确保id列的值为字符串类型。# 创建训练和验证数据生成器。# 定义早停和学习率衰减回调。# 读取骨龄信息CSV文件。# 添加额外的全连接层。

2024-11-03 19:42:53 372

原创 gulingmae

print(f"训练集样本数: {len(train_subset)}, 验证集样本数: {len(val_subset)}")print(f"Val MAE 未改善 ({trigger_times}/{patience})")print(f"最佳模型已保存 (Val MAE: {best_val_mae:.4f})")print(f"训练完成,最佳验证 MAE: {best_val_mae:.4f}")print(f"总样本数: {len(dataset)}")print("准备数据集...")

2024-11-03 10:57:26 671

原创 guling1103

print(f"训练集样本数: {len(train_subset)}, 验证集样本数: {len(val_subset)}")print(f"Val Loss 未改善 ({trigger_times}/{patience})")print(f"最佳模型已保存 (Val Loss: {best_val_loss:.4f})")print(f"训练完成,最佳验证损失: {best_val_loss:.4f}")print(f"无法处理图像 {img_path}: {e}")也可以结合 StepLR。

2024-11-03 10:14:23 865

原创 glguling

feature_extractor = nn.Sequential(*list(resnet.children())[:-1]) # 移除最后一层。print(f"Val Loss 未改善 ({trigger_times}/{patience})")print(f"最佳模型已保存 (Val Loss: {best_val_loss:.4f})")print(f"训练集样本数: {len(X_train)}, 验证集样本数: {len(X_val)}")print("提取图像特征...")

2024-11-02 20:02:03 788

原创 gl预测ll

feature_extractor = nn.Sequential(*list(resnet.children())[:-1]) # 移除最后一层。feature_extractor = nn.Sequential(*list(resnet.children())[:-1]) # 移除最后一层。print(f"最佳模型已保存 (Val Loss: {best_val_loss:.4f})")print(f"训练集样本数: {len(X_train)}, 验证集样本数: {len(X_val)}")

2024-11-01 22:15:14 582

原创 corediff_ud

return embreturn x# diff])return outreturn xdim = 32nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),if adjust:else:if adjust:else:if adjust:else:if adjust:else:return outelse:

2024-10-31 09:23:31 604

原创 dcgan

labels_file = r"C:\Users\sun\Desktop\2024102201\1\labels.txt" # 标签文件路径。output_dir = r"C:\Users\sun\Desktop\2024102201\out" # 生成图像保存路径。noise_dim = 100 # 噪声维度。label_dim = 58 # 标签维度。batch_size =8 # 批大小。

2024-10-30 21:49:46 659

原创 corediff2

return embreturn outif in_ch!= out_ch:else:return x# diff])return outreturn xdim = 32nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),if adjust:else:if adjust:else:if adjust:else:

2024-10-30 21:42:24 1123

原创 corediffpro

return embreturn x# diff])return outreturn xdim = 32nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),nn.GELU(),

2024-10-30 20:08:28 744

20250401sunmingzheng

20250401sunmingzheng

2025-04-01

帝可得后台管理系统.md

帝可得后台管理系统.md

2025-03-20

1237817246871294sunmingz

1237817246871294sunmingz

2025-02-22

202502221205sunmingzheng

202502221205sunmingzheng

2025-02-22

20250210demo

20250210demo

2025-02-10

20250210demo2

20250210demo2

2025-02-10

20250121sunmingzheng

20250121sunmingzheng

2025-01-21

20240121sunmingzheng

20240121sunmingzheng

2025-01-21

20250117sunmz

20250117sunmz

2025-01-17

20250116luwen

20250116luwen

2025-01-16

20250111sunmz

20250111sunmz

2025-01-11

20250110sunmingzheng

20250110sunmingzheng

2025-01-10

该书高树高树概述概述时代2136189

该书高树高树概述概述时代2136189

2025-01-07

弱小目标检测20250107

弱小目标检测20250107

2025-01-07

202572384孙明正

202572384孙明正

2025-01-03

20250103孙明正

20250103孙明正

2025-01-03

孙明正20251101

孙明正20251101

2025-01-02

20241230114sunmingzheng

20241230114sunmingzheng

2024-12-30

pca20241222

pca20241222

2024-12-22

毕设238912734017234

毕设238912734017234

2024-12-22

tt毕设202412212348

tt毕设202412212348

2024-12-21

model-data20241221

model_data20241221

2024-12-21

202412142139

202412142139

2024-12-14

202412142118

202412142118

2024-12-14

202412142045

202412142045

2024-12-14

202412142031

202412142031

2024-12-14

cdcgan236741034

cdcgan236741034

2024-12-13

202412112227

202412112227

2024-12-11

202412101922

202412101922

2024-12-10

202434785929123

202434785929123

2024-12-08

20sdhahsduahsda

20sdhahsduahsda

2024-12-08

20241208678

20241208678

2024-12-08

202412072111

202412072111

2024-12-07

mvwork12061245

mvwork12061245

2024-12-07

dbz20241206

dbz20241206

2024-12-06

heg20241204

heg20241204

2024-12-04

20241204124

20241204124

2024-12-04

202412012220

202412012220

2024-12-01

datafordata

datafordata

2024-11-29

227867345123

227867345123

2024-11-26

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除