AMP256_wf_610万迭代美女高参万能底丹,高参模型分享

本文介绍了610万迭代的AMP模型底丹,强调了其高效成型能力。建议使用高显存(16G以上)的GPU进行训练,同时提供了详细的系统配置建议,如虚拟内存设置和导出直播模型的注意事项。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

AMP610万迭代万能底丹:点击下载

610万AMP模型底丹,带变形因子,在这个基础上继续训练模型,能快速成型,600万迭代AMP模型还是比较稀有的

发到其他论坛老是被删,发到这里赚点积分用用
ae_dims: 512
inter_dims: 2048
e_dims: 128
d_dims: 128
d_mask_dims: 72


看这几个参数就知道是不是好模型了,绝对的高参数底丹,建议显存16g以上继续训练,显卡12G的电脑训练模型带不起来
系统高级设置里边,虚拟内存设置100G以上,导出直播模型的时候虚拟内存达到100G了


网盘里边包含底丹模型 和 导出的直播丹


 

  1. ========================模型概要========================
  2.                                                 
  3.                   模型名字: shendan_AMP              
  4.                                                 
  5.                   当前迭代: 6107299                 
  6.                                                 
  7. ----------------------模型选项----------------------
  8.                                                 
  9.     retraining_samples: True                    
  10.             resolution: 256                     
  11.              face_type: wf                     
  12.      models_opt_on_gpu: True                    
  13.                ae_dims: 512                     
  14.             inter_dims: 2048                    
  15.                 e_dims: 128                     
  16.                 d_dims: 128                     
  17.            d_mask_dims: 72                     
  18.           morph_factor: 0.5                     
  19.             preview_mf: 1                       
  20.        masked_training: True                    
  21.              eyes_prio: False                  
  22.             mouth_prio: False                  
  23.            uniform_yaw: True                    
  24.          loss_function: SSIM                    
  25.          blur_out_mask: False                  
  26.              adabelief: True                    
  27.             lr_dropout: y                       
  28.            random_warp: False                  
  29.       random_hsv_power: 0.05                    
  30.      random_downsample: False                  
  31.           random_noise: False                  
  32.            random_blur: False                  
  33.            random_jpeg: False                  
  34.          random_shadow: none                    
  35.       background_power: 0.05                    
  36.                ct_mode: none                    
  37.           random_color: False                  
  38.               clipgrad: True                    
  39.               use_fp16: False                  
  40.                cpu_cap: 8                       
  41.        preview_samples: 4                       
  42.     force_full_preview: False                  
  43.                     lr: 5e-05                  
  44.        autobackup_hour: 1                       
  45.           session_name:                        
  46.      maximum_n_backups: 24                     
  47. write_preview_history: False                  
  48.            target_iter: 0                       
  49.        random_src_flip: False                  
  50.        random_dst_flip: True                    
  51.             batch_size: 10                     
  52.              gan_power: 0.2                     
  53.         gan_patch_size: 64                     
  54.               gan_dims: 16                     
  55.          gan_smoothing: 0.1                     
  56.              gan_noise: 0.0                     
  57.                                                 
  58. ----------------------运行信息----------------------
  59.                                                 
  60.                   设备编号: 0                       
  61.                   设备名称: NVIDIA GeForce RTX 4090
  62.                   显存大小: 20.85GB        

AMP610万迭代万能底丹:点击下载 

### 大模型参数量与存储大小比较 在深度学习领域,大模型通常指那些具有极高参数量的神经网络模型。这些模型不仅能够处理复杂的任务,还可能需要大量的存储空间来保存其权重和其他相关信息。 #### 参数量计算方法 参数量是指模型中可训练参数的数量,它直接影响到模型的能力以及所需的计算资源。对于卷积神经网络 (CNN),全连接层和嵌入层等结构来说,参数量可以通过简单的矩阵运算得出[^2]。例如,在一个标准的线性变换 \( y = Wx + b \) 中,如果输入维度为 \( d_{in} \),输出维度为 \( d_{out} \),那么该层的参数数量即为 \( d_{in} \times d_{out} + d_{out} \)[^1]。 当涉及到更大的规模时,某些超大规模的语言或者视觉预训练模型可能会拥有数十亿甚至上千亿个参数。这种情况下,为了便于描述,人们常采用科学计数法表示具体的数值范围: - **十亿级**:约等于 10 的九次方 (\(10^9\)); - **百亿级**:约为 10 的十一次方 (\(10^{11}\)); - **千亿级**:大约相当于 10 的十二次方 (\(10^{12}\)); - **亿级**:接近于 10 的十三次方 (\(10^{13}\))[^2]。 #### 存储大小估算方式 关于模型的实际磁盘占用情况,则需考虑更多因素。一般来说,每种数据类型的位宽决定了其所消耗内存的具体多少。以浮点型为例,默认情况下 PyTorch 使用的是 FP32 格式,这意味着每一个单独的权重要占据四个字节的空间[^4]。因此,假设某特定版本 GPT 模型总共有 N 个这样的标量变量存在的话,理论上讲整个文件体积应该大致位于如下区间之内: \[N * sizeof(float)\] 其中 `sizeof(float)` 对应的就是上述提到过的固定值——四字节数组长度单位下的表现形式。当然这只是一个理想状态下的简化版公式,真实世界中的应用往往还会额外增加一些辅助性的元数据记录项等内容进去,从而使得最终得到的结果要比单纯依靠原始理论推导出来的数字稍微更大一点[^3]。 另外值得注意的一点在于,并不是所有的框架都默认选用同样的精度级别来进行序列化操作;部分高效能导向的设计方案或许会选择更低分辨率的数据类型代替传统意义上的双精确实现途径(如 INT8 或者 BFLOAT16),进而有效减少整体所需容量的同时也牺牲了一定程度上的准确性作为代价换取性能提升效果明显可见之处。 ```python import torch from prettytable import PrettyTable def count_model_size(model, unit='MB'): total_params = sum(p.numel() for p in model.parameters()) trainable_params = sum(p.numel() for p in model.parameters() if p.requires_grad) param_size_bytes = total_params * 4 # Assuming all parameters are float32 conversion_factors = { 'KB': 1e3, 'MB': 1e6, 'GB': 1e9 } converted_param_size = param_size_bytes / conversion_factors[unit] table = PrettyTable(["Parameter", "Value"]) table.add_row(["Total Parameters", f"{total_params:,}"]) table.add_row(["Trainable Parameters", f"{trainable_params:,}"]) table.add_row([f"Model Size ({unit})", f"{converted_param_size:.2f} {unit}"]) return str(table) class ExampleModel(torch.nn.Module): def __init__(self): super().__init__() self.fc1 = torch.nn.Linear(784, 512) self.fc2 = torch.nn.Linear(512, 10) example_model = ExampleModel() print(count_model_size(example_model)) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

牛马尼格

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值