- 博客(20)
- 收藏
- 关注
原创 HGTL: A hypergraph transfer learning framework for survival prediction of ccRCC论文解析
HGTL: A hypergraph transfer learning framework for survival prediction of ccRCC肾透明细胞癌(ccRCC)的临床诊断主要依赖于组织病理学分析和计算机断层扫描(CT)。尽管病理诊断被视为金标准,但活检等侵入性操作存在肿瘤扩散风险。相反,CT扫描提供了一种非侵入性替代方案,但其分辨率可能不足以检测微观肿瘤特征,这限制了预后评估的性能。为解决此问题,我们提出一种仅使用CT图像预测ccRCC生存的高阶相关性驱动方法,实现了与病理金标准相媲
2025-09-13 18:00:26
773
原创 注意力机制和Transformer
为例,详细展示一个输入"Hello world"如何经过Transformer内部处理,最终输出"你好世界"。比如三个头,我设置的X嵌入维度12,那么三个头的嵌入维度分别都是4。:处理句子"动物没有过马路,因为它太累了"时,自注意力会让"它"关联到"动物"而非"马路"标记(假设为"[SOS]“),逐步生成"你"→"好"→"世"→"界"→”<结束>"。假设编码器有6层,这里展示第一层的处理过程(后续层类似)。:让每个词都能直接关注整个句子的所有词。输入有两个功能,打分和计算加权求和。:最终中文句子"猫很胖"
2025-06-05 17:39:48
1096
原创 RNN,GRU,LSTM讲理解
“选择性记忆” ——每个时间步决定要记住多少旧信息,用多少新信息。通过两个"开关"(门控)实现:假设当前时刻为,输入数据是,上一个隐藏状态是zt=σ(Wz⋅xt+Uz⋅ht−1+bz)z_t = \sigma(W_z \cdot x_t + U_z \cdot h_{t-1} + b_z)zt=σ(Wz⋅xt+Uz⋅ht−1+bz)rt=σ(Wr⋅xt+Ur⋅ht−1+br)r_t = \sigma(W_r \cdot x_t + U_r \cdot h_{t-1} + b_r)rt=
2025-06-05 17:25:37
906
原创 自编码器理解
自编码器通过“压缩-重建”机制,揭示了数据的内在结构,是深度学习中的重要工具,尤其在无监督学习和表示学习领域。将输入数据(如图像、文本)压缩为一个低维的潜在表示(Latent Representation),即。其核心思想是通过对输入数据进行压缩和重建,学习数据的高效表示(编码)。根据编码 (z) 重建原始数据,尽可能还原输入。自编码器(Autoencoder)是一种用于。的神经网络模型,主要用于数据的。
2025-06-05 17:21:57
543
原创 deepseek八大提问技巧!使用效率提升10倍!
Deepseek与GPT等模型的核心差异在于问题解决路径的设计逻辑:不同于GPT需要用户通过复杂指令预设解决步骤,DeepSeek作为垂直推理模型,内置结构化思维链,只需输入目标(如"分析X方案的可行性"),即可自动拆解问题层级,在数学推导、内容生成等场景中直接输出完整推理过程——这种"目标输入→系统自迭代→结论输出"的机制有助于我们更高效的使用。(如:如果是一个刚毕业研究AI方向的研究生,站在不同身份思考,要不要选择上海发展)。(如:怎么看待当今短视频让人入迷的问题,请用幽默诙谐或毒舌的语气吐槽一下)
2025-02-19 18:04:29
1134
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅
1