莲心泡水能祛火

       莲心就是莲子中央的青绿色胚芽,味极苦。大家在食用莲子时常将其取出,以免影响口味。其实,莲心是一味很好的中药材。

 

  接近年关,大鱼大肉总是免不了的,过食油腻易于导致脾胃消化不良而湿热内盛,出现很多上火的症状,这时莲心就能派上大用场了。

 

  据《本草纲目》记载,莲心味苦性寒,功能为清热祛火、清心明目。平时自我治疗时主要采用泡水代茶饮,或煎汤口服。下面就具体介绍一下莲心的用途和用法。

 

  取莲心10克,水煎代茶饮,可以治疗“上火”导致的症状,如面部疖疮,口干鼻干,面红目赤,头痛头晕,便秘等。若平素即有阴虚火旺,常有口干、手掌心发热、失眠等,可以将莲子心和生地黄以2:3的比例(如莲子心6克,生地黄9克),煮沸15钟后取水代茶饮,可以养阴清火。若平素有便秘者,可以将莲心泡水,每日服用,坚持一段时间后可取得不错的效果,能够促进毒素从肠道排除,减轻“上火”的症状。另外有研究表明,莲心长期使用可降血压。

 

  但是,莲心为清火药物,脾胃虚寒者不宜使用,以免加重大便溏稀、消化不良等症状。▲ 《生命时报》 (2007-02-13 第19版)

 

      1、秋天干燥,体内容易产生火气,小便少,生口疮,神经系统也随着紊乱。多喝“苦”水能润燥除烦、稳定情绪。徐主任特别推荐“莲心益智茶”,用10克莲心、10克益智仁、12克百合、5克红枣,开水泡服,可以当作秋天的保健饮品,能起到平心降火、养心安神的作用。

 

     2、莲心茶

    特点:清心火,通血脉。高血压、冠心病和神经官能症患者。
    原料:  干品莲子心3克,绿茶1克。
    制作过程:  将莲子心与茶叶一起放入茶杯内,用刚烧沸的开水,冲泡大半杯,立即加盖,5分钟后可饮。饭后饮服。头泡莲心茶,快饮尽时,略留余汁,再泡再饮,直至冲淡为止。

    《本草再新》说,莲心功能“清心火,平肝火,泻脾火,降肺火,消暑除烦,生津止渴,治目红肿。”它含莲心碱、异莲心碱、甲基莲心碱等多种生物碱。药理研究表明,从莲子心中提出的莲心碱结晶有短暂降压之效,改变为季胺盐,则出现强而持久的降压作用。
   
    3、莲子心茶:所谓莲子心是指莲子中间青绿色的胚芽,其味极苦,但却具有极好的降压去脂之效。用莲心12克,开水冲泡后代茶饮用,每天早晚各饮一次,除了能降低血压外,还有清热、安神、强心之特效。
 

 

 

 

资源下载链接为: https://pan.quark.cn/s/5c50e6120579 在Android移动应用开发中,定位功能扮演着极为关键的角色,尤其是在提供导航、本地搜索等服务时,它能够帮助应用获取用户的位置信息。以“baiduGPS.rar”为例,这是一个基于百度地图API实现定位功能的示例项目,旨在展示如何在Android应用中集成百度地图的GPS定位服务。以下是对该技术的详细阐述。 百度地图API简介 百度地图API是由百度提供的一系列开放接口,开发者可以利用这些接口将百度地图的功能集成到自己的应用中,涵盖地图展示、定位、路径规划等多个方面。借助它,开发者能够开发出满足不同业务需求的定制化地图应用。 Android定位方式 Android系统支持多种定位方式,包括GPS(全球定位系统)和网络定位(通过Wi-Fi及移动网络)。开发者可以根据应用的具体需求选择合适的定位方法。在本示例中,主要采用GPS实现高精度定位。 权限声明 在Android应用中使用定位功能前,必须在Manifest.xml文件中声明相关权限。例如,添加<uses-permission android:name="android.permission.ACCESS_FINE_LOCATION" />,以获取用户的精确位置信息。 百度地图SDK初始化 集成百度地图API时,需要在应用启动时初始化地图SDK。通常在Application类或Activity的onCreate()方法中调用BMapManager.init(),并设置回调监听器以处理初始化结果。 MapView的创建 在布局文件中添加MapView组件,它是地图显示的基础。通过设置其属性(如mapType、zoomLevel等),可以控制地图的显示效果。 定位服务的管理 使用百度地图API的LocationClient类来管理定位服务
num_classes: 30 project_path: "D:/pychj/pythorch" train_data_path: "DataSet/final/train" val_data_path: "DataSet/final/valid" test_data_path: "DataSet/final/test" #图片可视化分析源路径 img_path: "DataSet/final/test/0002_人参/人参31.jpg" #训练伦次 epochs: 30 #选用设备 device: 'cuda:0' #训练批次大小,防止显存溢出 batch_size: 16 #加载的权重路径 weights_path: '' #迁移学习 fine_tuning: True #优化器的选择 opt_name: 'AdamW' #线程加载 nw: 2 #模型保存路径 #vgg模型 Model_VGG: 'Model/Model_VGG/weights/VGG16_43481362425_best_model.pt' Model_AlexNet: 'Model/Model_AlexNet/weights/AlexNet_43491884900_best_model.pt' Model_MobileNet: 'Model/Model_MobileNet/weights/MobileNet_V3_Small_43544276625_best_model.pt' Model_ResNet: 'Model/Model_ResNet/weights/ResNet50_43544327450_best_model.pt' #可视化测验调用模型路径 Web_Model: 'Model/Model_VGG/weights/VGG16_43481362425_best_model.pt' #端口号 Web_Port: 8017 #不同类别的名称列表 display_labels: - '三七' - '乌梅' - '人参' - '何首乌' - '党参' - '决明子' - '小茴香' - '板蓝根' - '枸杞子' - '柴胡' - '桑葚' - '槐花' - '沉香' - '灵芝' - '甘草' - '白芍' - '白花蛇舌草' - '百合' - '穿心莲' - '红花' - '罗汉果' - '艾叶' - '茯苓' - '莲子心' - '葛根' - '虫草' - '蝉蜕' - '金银花' - '阿胶' - '陈皮' #混淆矩阵显示具数值 show_figure: false #混淆矩阵结果归一化 normalization: true 找出这里面的超参数
03-15
<think>好的,我需要帮用户提取深度学习模型训练中的超参数列表。首先,得回顾常见的超参数有哪些。用户提到了num_classes、epochs、batch_size、fine_tuning、opt_name、nw等,我需要扩展更多的相关参数。 基础超参数方面,学习率(learning_rate)肯定是核心的,还有训练轮数(num_train_epochs),批量大小(per_device_train_batch_size),权重衰减(weight_decay),这些在引用[1]的TrainingArguments里都有出现。优化器类型(opt_name)比如Adam、SGD,动量(momentum)和优化器参数如beta1、beta2也是重要的。 模型结构相关的参数,像num_classes是分类任务的类别数,预训练模型选择(pretrained_model_name)比如ResNet-18在引用[4]中提到。输入尺寸(input_size)和数据增强参数如随机裁剪、翻转等也需要考虑。 训练策略方面,微调(fine_tuning)和迁移学习相关参数,比如是否冻结层(freeze_layers)、解冻层数(unfreeze_layers)在引用[2]和[4]中涉及。早停(early_stopping_patience)、学习率调度器(lr_scheduler_type)比如余弦退,以及混合精度训练(fp16)在引用[1]的示例里也有设置。 正则化相关的参数,除了权重衰减,还有丢弃率(dropout_rate)、标签平滑(label_smoothing)、L1/L2正则化系数。硬件相关的如设备类型(device)、并行策略(distributed_strategy)、GPU数量(nproc_per_node)也会影响训练。 验证和日志方面,评估频率(evaluation_strategy)、保存策略(save_strategy)、日志目录(output_dir)和实验名称(run_name)在引用[1]和[5]中出现。数据相关的如训练集比例(train_split_ratio)、数据路径(data_dir)、工作线程数(num_workers即nw)也是关键。 需要确保覆盖用户提到的参数,同时补充其他常用超参数。注意引用中的例子,比如引用[1]里的TrainingArguments包含多个参数,引用[2]讨论迁移学习的调整,引用[4]使用预训练模型。整理这些信息,分门别类列出,确保每个参数有简要说明,并正确标注引用来源。</think>深度学习模型训练中常见的超参数可分为以下几类,结合代码示例和引用资料进行说明: ### 一、基础训练参数 1. `num_classes`:输出层神经元数量(分类任务) ```python model = nn.Linear(512, num_classes) # 全连接层输出维度 ``` 2. `epochs`/`num_train_epochs`:训练轮次 ```python training_args = TrainingArguments(num_train_epochs=2) # [^1] ``` 3. `batch_size`:单批次样本数量 ```python training_args = TrainingArguments(per_device_train_batch_size=32) # [^1] ``` 4. `learning_rate`:学习率(控制参数更新步长) ```python training_args = TrainingArguments(learning_rate=1e-3) # [^1] ``` ### 二、优化器参数 5. `opt_name`:优化器类型(adam/sgd/rmsprop等) ```python optimizer = torch.optim.Adam(model.parameters(), lr=0.001) ``` 6. `weight_decay`:权重衰减(L2正则化系数) ```python training_args = TrainingArguments(weight_decay=0.01) # [^1] ``` 7. `momentum`:动量参数(SGD优化器专用) ```python optimizer = torch.optim.SGD(params, momentum=0.9) ``` ### 三、模型结构参数 8. `pretrained`:是否使用预训练模型 ```python pretrained_net = models.resnet18(pretrained=True) # [^4] ``` 9. `fine_tuning`:微调模式开关(True=微调全层,False=冻结部分层) ```python if not fine_tuning: for param in pretrained_net.parameters(): param.requires_grad = False # [^2] ``` ### 四、数据与硬件参数 10. `nw`/`num_workers`:数据加载线程数 ```python dataloader = DataLoader(dataset, num_workers=4) ``` 11. `device`:训练设备(cpu/cuda/mps) ```python device = torch.device("cuda" if torch.cuda.is_available() else "cpu") ``` ### 五、进阶训练策略 12. `warmup_steps`:学习率预热步数 13. `gradient_accumulation_steps`:梯度累积步数 ```python training_args = TrainingArguments( gradient_accumulation_steps=2) # 模拟更大batch_size ``` 14. `fp16`:混合精度训练开关 ```python training_args = TrainingArguments(fp16=True) ``` ### 六、验证与保存参数 15. `evaluation_strategy`:验证频率(epoch/steps/no) ```python training_args = TrainingArguments(evaluation_strategy="epoch") # ``` 16. `save_strategy`:模型保存策略 ```python training_args = TrainingArguments(save_strategy="epoch") # ``` 完整参数示例(基于HuggingFace格式): ```python training_args = TrainingArguments( output_dir="./train_output", # [^5] num_train_epochs=5, per_device_train_batch_size=32, learning_rate=2e-5, weight_decay=0.01, evaluation_strategy="epoch", save_strategy="epoch", load_best_model_at_end=True, metric_for_best_model="accuracy", fp16=True, num_workers=4 # nw参数 ) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值