有感

今天的感,是感冒的感,不是感想的感:)

映象中,很久没有感冒了。

大假前生病,倒也挺好,督促自己好好休息,少出去疯癫。

爸妈姑伯们组队去宁苏沪团聚兼扫墓了,这个假期,我也就不回武汉了。

本打算的课程计划也因为导师的出游往后挪了。

也好,过个闲假,落得自在……

姑妈和我不约而同的都写了点东西悼念已去的亲人,帖在这里,以表哀思!

《祭嫂文》是姑妈写给早逝的伯妈 ——

                               祭嫂文
    乙酉年暮春初夏之交,来此为嫂扫墓,而奠以文曰:
    呜呼!相约今年苏州一聚,吾如期而至,汝却抱病离去。虽有觭梦幻想,宁知手足满座而独缺一人焉?
    嫂身前于事业鞠躬尽瘁,于家庭呕心沥血,使如于自己留心一二,或未必病至若此。悲夫!
    曾记吾数次赴苏探亲,嫂每每百忙之中拨冗款待,饮食起居,有求必应,嘘寒问暖,无微不至;游园赏景,细致周到;逛街购物,耐心体贴,俨然宾至如归也。最后一见,尤铭刻于心,当时嫂已病入膏肓,自知不久,为慰人心,依旧整妆端坐,从容谈笑。情意切切,执手相托,诀别之景,历历眼前。思之凄哽,呜乎哀哉!
    然人生于天地之间,如白驹之过隙,古人云:修短随化,终期于尽。嫂虽先行,庇佑家人。今见亲人安泰,儿女腾达,父慈子孝,家和事兴,当含笑九泉矣。
    今在墓前,悼汝既不闻汝言,奠汝又不见汝食,唯纸灰飞扬,信汝知吾哀思矣。
    吾归矣,犹三步一回首也!
                                                                                 妹 泣悼

以下是我写给爷爷奶奶的信——

亲爱的爷爷奶奶:

您们诠释的人生让吾辈感悟了生命的美好和弥足珍贵。

我们恒久珍藏,无限扩容。

不因岁月流逝而磨蚀,不因空间转移而损耗。

原谅我们远在千里迢迢的他乡,

不能在这刻为您们挂束圣洁白藩、捧把芬芳泥土,

不能在您们的墓前跪拜叩首、寄托哀思。

浩浩江南水  悠悠隔代情

雄雄塞北风  切切奕旌思

托江水和春风稍去我们无限的想念和虔诚的祈祷!!!

 

                               孙女 2005年春末 冀

根据原作 https://pan.quark.cn/s/459657bcfd45 的源码改编 Classic-ML-Methods-Algo 引言 建立这个项目,是为了梳理和总结传统机器学习(Machine Learning)方法(methods)或者算法(algo),和各位同仁相互学习交流. 现在的深度学习本质上来自于传统的神经网络模型,很大程度上是传统机器学习的延续,同时也在不少时候需要结合传统方法来实现. 任何机器学习方法基本的流程结构都是通用的;使用的评价方法也基本通用;使用的一些数学知识也是通用的. 本文在梳理传统机器学习方法算法的同时也会顺便补充这些流程,数学上的知识以供参考. 机器学习 机器学习是人工智能(Artificial Intelligence)的一个分支,也是实现人工智能最重要的手段.区别于传统的基于规则(rule-based)的算法,机器学习可以从数据中获取知识,从而实现规定的任务[Ian Goodfellow and Yoshua Bengio and Aaron Courville的Deep Learning].这些知识可以分为四种: 总结(summarization) 预测(prediction) 估计(estimation) 假想验证(hypothesis testing) 机器学习主要关心的是预测[Varian在Big Data : New Tricks for Econometrics],预测的可以是连续性的输出变量,分类,聚类或者物品之间的有趣关联. 机器学习分类 根据数据配置(setting,是否有标签,可以是连续的也可以是离散的)和任务目标,我们可以将机器学习方法分为四种: 无监督(unsupervised) 训练数据没有给定...
### 感受野概念 感受野是指神经网络中某个节点能够感知到的输入空间范围。对于卷积神经网络(CNN),这一属性尤为重要,因为它决定了每一层的感受区域大小以及如何影响最终输出[^1]。 具体来说,在CNN结构里,每一个滤波器都会在其对应的局部区域内滑动操作,这个局部区域即为该滤波器的感受野。随着层数增加,高层节点的感受野也会逐渐扩大,意味着它们能覆盖更大的原始输入面积。这种机制使得深层网络具备更强的数据抽象能力和更广泛的上下文理解力。 #### 应用场景 在图像识别任务中,合理设计感受野可以帮助提高模型的表现: - **目标检测**:为了更好地捕捉不同尺寸的目标物体,可以通过调整卷积核大小或者采用多尺度金字塔表示法来改变各层的感受野分布[^4]。 - **语义分割**:增大末端层的感受野有助于增强全局信息获取,从而改善像素级分类精度;同时保持早期浅层的小型化感受野,则有利于保留更多细节特征[^3]. ```python import torch.nn as nn class CustomConvNet(nn.Module): def __init__(self, input_channels=3): super().__init__() self.conv_layers = nn.Sequential( # 小感受野,捕获细粒度纹理 nn.Conv2d(input_channels, 64, kernel_size=3, stride=1, padding=1), # 中等感受野,融合局部模式 nn.Conv2d(64, 128, kernel_size=5, stride=2, padding=2), # 大感受野,掌握整体布局 nn.Conv2d(128, 256, kernel_size=7, stride=4, padding=3) ) def forward(self, x): return self.conv_layers(x) model = CustomConvNet() print(model) ```
评论 5
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值