
模型
文章平均质量分 71
第六五签
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
核方法、核技巧、核函数、核矩阵
核技巧堪称机器学习的“神来之笔”,它巧妙地将高维空间中难以解决的计算问题,转化为原始空间中进行核函数的简单计算,从而极大地扩展了线性模型的应用范围,成为处理非线性问题的标准利器。理解核方法和核技巧是掌握现代机器学习中核心内容(如SVM、高斯过程等)的关键所在。的,这意味着在原始特征空间中,无法用一条直线(或超平面)完美地将不同类别的数据点分开,或者无法用线性模型很好地拟合复杂函数。是机器学习中处理非线性问题的强大理论框架和实践工具。中进行的计算(尤其是在优化和代数操作中),最终可以。原创 2025-06-10 17:26:15 · 503 阅读 · 0 评论 -
UniRepLKNet_ A Universal Perception Large-Kernel ConvNet
大核卷积神经网络(ConvNets)最近受到了广泛的研究关注,但有两个尚未解决的关键问题需要进一步的研究。1)现有的大核卷积网的架构在很大程度上遵循了传统的卷积网或transformer的设计原则,而针对大核卷积网的架构设计仍未得到充分解决。2)由于transformer主导了多种模式,convnet是否在视觉之外的领域也具有很强的普遍感知能力仍有待研究。在本文中,我们从两个方面进行了贡献。原创 2024-03-12 09:59:20 · 592 阅读 · 0 评论 -
FLatten Transformer_ Vision Transformer using Focused Linear Attention
当将transformer模型应用于视觉任务时,自注意的二次计算复杂度(n2n^2n2)一直是一个持续存在的挑战。另一方面,线性注意通过精心设计的映射函数来近似Softmax操作,提供了一个更有效的替代方法。然而,当前的线性注意方法要么遭受显著的性能下降,要么从映射函数中引入额外的计算开销。在本文中,作者提出了一种新的聚焦线性注意模块,以实现高效率和表达性。具体来说,首先从聚焦能力和特征多样性两个角度分析了导致线性注意性能下降的因素。原创 2024-03-11 21:36:22 · 1310 阅读 · 0 评论 -
灵心(soulchat)中文领域心理健康大模型
灵心(soulchat)中文领域心理健康大模型原创 2023-07-19 00:22:14 · 1653 阅读 · 0 评论