机器学习-深度学习
文章平均质量分 57
记录AI学习过程
ProfessionalEngineer
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
什么是cuda
它将GPU从一个专为图形设计的处理器,转变为一个强大的、通用的并行计算引擎。而GPU则由数千个更小、更节能的核心组成,擅长同时处理大量简单的、相互独立的任务(像是一支动作整齐划一的万人军队)。当启动一个内核时,你需要指定网格和线程块的维度(例如,`<<<1024, 256>>>` 表示启动1024个块,每个块有256个线程,总共 262,144 个线程)。平台: 包含硬件(支持CUDA的NVIDIA GPU)、驱动程序、编译器、函数库、API和开发工具(如Nsight)的一整套生态系统。原创 2025-12-06 16:27:34 · 268 阅读 · 0 评论 -
什么是具身智能
具身智能(Embodied Intelligence)是人工智能领域的前沿分支,强调智能体通过物理实体与环境动态交互实现认知和行动能力。其核心理念在于“智能源于身体与环境的互动”,而非仅依赖算法或数据运算。原创 2025-05-11 12:16:01 · 1930 阅读 · 0 评论 -
英伟达CEO黄仁勋
黄仁勋(Jensen Huang),1963年2月17日出生于中国台湾省台北市,祖籍浙江青田山口大安村,美籍华人,毕业于斯坦福大学,香港科技大学荣誉博士,英伟达公司联合创始人及首席执行官。在CES 2025的演讲中,他通过生动的演示和互动,吸引了大量观众。• 行业地位:黄仁勋被一些人称为“AI时代的乔布斯”,他和乔布斯一样,具有预见未来的能力,并且对员工要求严格,逼着他们突破极限。黄仁勋通过他的领导力和远见,将英伟达从一个小型创业公司发展成为全球领先的GPU和AI技术公司,对整个科技行业产生了深远的影响。原创 2025-01-14 16:59:21 · 4319 阅读 · 0 评论 -
人工智能之父图灵
• 学术成就:1936年,图灵发表了论文《论可计算数及其在判定问题中的应用》,提出了图灵机的概念,奠定了现代计算理论的基础。1937年,他发表的另一篇文章《可计算性与λ可定义性》拓广了丘奇提出的“丘奇论点”,形成“丘奇-图灵论点”,对计算理论的严格化和计算机科学的形成具有奠基性意义。• 二战贡献:二战期间,图灵在英国战时情报中心“政府编码与密码学院”服役,带领团队研制出密码破译机“邦比”和“巨人”,成功破译了德国的密码系统Enigma,为盟军取得二战胜利发挥了重要作用。原创 2025-01-10 08:23:43 · 2132 阅读 · 0 评论 -
诺奖得主Geoffrey Hinton:我的五十年深度学习生涯与研究心法 | 大家谈
如果你想把这两句翻译成法语,必须明白在第一种情况下,“它”指的是手提箱,而在第二种情况下,“它”指的是奖杯,因为它们在法语中是不同的性数(genders ),而且早期的神经网络机器翻译是随机的,所以当机器把上述句子翻译成法语时,机器无法正确识别性数。30多岁时,他就弄清了硼氢化物的结构,差点因此获得诺贝尓奖,真的很厉害。在第一个项目中,我发现,如果你想让神经网络绘制图形,将图形分割成多个部分,并且这些图形的部分都能被类似的神经硬件绘制出来,那么储存整个图形的神经中枢就需要记住整体图形的位置、方向和大小。原创 2025-01-04 09:19:21 · 1483 阅读 · 0 评论 -
深度学习之父辛顿
他出生于1947年,在英国伦敦。- **反向传播算法**:他在1986年与David Rumelhart和Ronald Williams共同撰写了关于反向传播算法的论文,这一算法使得多层神经网络的训练成为可能。- **玻尔兹曼机**:1983年,Hinton与Terrence Sejnowski一起发明了玻尔兹曼机,这是第一个能够学习不属于输入或输出的神经元内部表示的神经网络。- **深度置信网**:2006年,他提出了深度置信网的快速学习算法,这一成果推动了深度学习理论的突破。原创 2025-01-04 08:48:18 · 863 阅读 · 0 评论 -
什么是transformer技术
Transformer 模型的核心是自注意力(self-attention)机制,它允许模型在序列中的每个位置都直接感知到其他位置,从而捕捉序列内部的依赖关系,无论这些依赖关系有多远。• 编码器-解码器架构:在原始的Transformer模型中,使用了编码器-解码器结构,编码器处理输入序列,解码器生成输出序列。• 自注意力机制(Self-Attention):这是Transformer的核心,它允许模型在处理序列时,每个元素都考虑到序列中的其他所有元素,这使得模型能够捕捉到序列内部的长距离依赖关系。原创 2024-12-09 11:03:51 · 566 阅读 · 0 评论 -
什么是大模型的RAG
其核心思想在于通过从外部知识库中检索相关信息,并将其作为提示(Prompt)输入给大型语言模型(LLMs),以增强模型处理知识密集型任务的能力,如问答、文本摘要、内容生成等。生成模块将检索到的相关文档与原始查询合并,形成更丰富的上下文信息,作为生成模型的输入,并根据输入的上下文信息生成连贯、准确且信息丰富的回答或文本。• 增强:增强步骤将检索到的信息用作生成模型的上下文输入,以增强模型对特定问题的理解和回答能力。RAG通过结合高效的检索模块与强大的生成模型,实现基于外部知识增强的自然语言生成能力。原创 2024-12-09 10:48:19 · 376 阅读 · 0 评论 -
什么是tts
它涉及将计算机自己产生的、或外部输入的文字信息转变为可以听得懂的、流利的汉语口语(或其他语言语音)输出的过程,属于语音合成(Speech Synthesis)领域。语音合成技术通过模拟人的嘴唇、舌头和发声器官,或者通过其他技术手段,将文本信息实时转化为标准流畅的语音朗读出来,相当于给机器装上了人工嘴巴。文本分析阶段与自然语言处理(NLP)步骤相似,包括句子分割、单词分割、词性标注等,其输出是grapheme-to-phoneme(G2P),作为语音合成阶段的输入。原创 2024-11-17 21:33:09 · 2354 阅读 · 0 评论 -
什么是大模型中的Scaling Law
大模型中的Scaling Law(规模定律或缩放定律)是一种描述模型性能如何随着模型大小(如参数数量)、数据集大小和计算资源的增加而变化的理论工具。通过数学推导和实验验证,研究者得出了一些关于大模型性能与规模之间关系的定量规律,为大模型的设计和训练提供了理论指导。这意味着,随着模型大小、数据集大小和用于训练的计算量的增加,语言建模性能得到了提升。总的来说,Scaling Law是理解和预测大模型性能表现的重要工具,它帮助研究者在模型设计和训练中做出更合理的决策。原创 2024-11-17 21:19:29 · 1411 阅读 · 0 评论 -
AI反欺诈
泛化学习(Generalization)是机器学习领域中的一个关键术语,指的是训练出来的模型在处理从未见过的新数据时的性能表现。泛化学习依赖于训练数据的质量和数量,以及所选择的模型算法的适应能力和泛化性能。通过有助于泛化性能的方法,例如交叉验证和dropout等,开发者可以优化其模型的泛化能力,构建更高精准的机器学习模型。强化学习(Reinforcement Learning)是一种机器学习方法,通过在机器学习的过程中进行试错实验和奖励惩罚来训练智能体(Agent),使其在给定环境下具有最优的行动策略。原创 2023-06-21 09:30:11 · 199 阅读 · 0 评论
分享