- 博客(91)
- 收藏
- 关注
原创 歌声风格转换论文分享:2509.15629v1
前言:本文分享一篇探究歌声风格转换的论文,全文五页,只提供第一页的英文及其翻译,详情请移步,链接:https://arxiv.org/abs/2509.15629v12025年歌声转换挑战赛:从歌手身份转换到演唱风格转换We present the findings of the latest iteration of the Singing Voice Conversion Challenge, a scientific event aiming to compare and understand dif
2025-11-25 12:01:03
483
原创 特别分享:LangGraph的六种设计模式及实例
LangGraph 的强大之处在于它提供了灵活的基础构件,允许实现多种复杂的设计模式。本文分享六种最核心、最实用的 LangGraph 设计模式,并附有代码实例。
2025-10-09 08:01:06
944
原创 特别分享:LangChain——构建强大LLM应用的“万能胶水”
如果你最近涉足大语言模型领域,那么 **LangChain** 这个名字一定会如雷贯耳。它被誉为构建LLM应用的“最强框架”,但它的本质究竟是什么?我们为何需要它?又该如何使用它?本文将带你拨开迷雾,深入浅出地理解LangChain。
2025-09-28 23:32:41
698
原创 NLP:讲解Bert模型的变体
前言:在上一篇《详解Bert模型》中,我们了解了BERT如何凭借双向Transformer和预训练-微调范式革新了自然语言处理领域。但故事并未结束。BERT的成功点燃了研究社区的热情,催生出了一个庞大而充满活力的“BERT家族”。这些变体针对BERT的某些局限性,或在特定方向上进行优化,推动了NLP技术的边界。
2025-09-27 22:15:30
2787
原创 NLP:关于Bert模型的基础讲解
前言:在人工智能领域,尤其是在自然语言处理(NLP)的世界里,2018年是一个值得铭记的年份。这一年,谷歌发布了一款名为**BERT**的模型,它如同一颗重磅炸弹,瞬间刷新了11项NLP任务的性能记录,将机器对语言的理解能力提升到了一个前所未有的高度。
2025-09-27 21:53:59
1013
原创 特别分享:怎么用coze搭建智能体?
前言:用 “扣子”(Coze)搭建智能体就像 “搭乐高” 一样简单有趣。它是一个零代码、可视化的AI智能体开发平台,让你无需编写复杂代码,就能快速构建具备强大能力的AI助手。
2025-09-21 23:03:33
739
原创 NLP:详解FastText
前言:你是否曾被文本分类问题困扰?是否觉得训练词向量模型既耗时又耗资源?今天,我们来深入探讨一个由 Facebook AI Research (FAIR) 开发的强大工具——FastText。它不仅在速度上快如闪电,在效果上也丝毫不逊色,堪称 NLP 领域的“瑞士军刀”。
2025-09-21 22:43:44
813
原创 NLP:Transformer优势详解
前言:Transformer,这一在人工智能领域掀起惊涛骇浪的架构,自2017年谷歌团队发表《Attention Is All You Need》论文诞生以来,便以迅雷不及掩耳之势席卷全球,成为AI发展史上浓墨重彩的一笔。它究竟有何魔力,能让全球开发者为之疯狂,让AI技术焕发新生?今天,就让我们一同揭开Transformer的神秘面纱,探寻其优势所在。
2025-09-20 22:10:10
880
原创 NLP:Transformer之self-attention(特别分享3)
前言:之前讲解了Transformer各部分作用等等,本文分享self-attention。
2025-09-14 22:39:40
1328
原创 NLP:Transformer残差连接的作用(特别分享2)
前言:紧接着上文的Transformer各子模块作用分享,本文继续特别分享Transformer中残差连接(Residual Connection)的作用。
2025-08-24 16:37:09
1042
原创 NLP:Transformer各子模块作用(特别分享1)
前言:Transformer 是深度学习领域的革命性架构,彻底改变了NLP的发展方向。前面分享了Transformer的大概构建思路,本文特别分享Transformer的各子模块作用。
2025-08-24 16:11:58
1037
原创 NLP:Transformer输入部分
前言:前文讲解了Transformer的诞生和基础结构,然后Transformer总体分为输入部分、输出部分、编码器和解码器部分,而本文讲解Transformer的输入部分。
2025-07-30 00:01:14
531
原创 NLP:Transformer背景介绍
前言:前面的文章讲解了RNN及其案例,这篇文章开始讲解Transformer,首先简单介绍Transformer。
2025-07-29 00:08:06
1395
原创 NLP:RNN文本生成案例分享
前言:上篇文章讲解了RNN,这篇文章分享文本生成任务案例:文本生成是一种常见的自然语言处理任务,输入一个开始词能够预测出后面的词序列。本案例将会使用循环神经网络来实现周杰伦歌词生成任务。
2025-07-13 00:06:44
1166
原创 NLP:初识RNN模型(概念、分类、作用)
前言:前面几篇文章讲解了NLP数据的基本处理,从这篇文章开始做NLP相关模型的普及。。。首先普及**RNN模型**。
2025-07-10 00:07:51
1804
原创 NLP:文本特征处理和回译数据增强法
前言:前文讲解了文本数据处理,这篇文章讲解NLP的文本特征处理。文本特征处理主要有 **添加n-gram特征** 和**文本长度规范**两种方式。
2025-07-07 22:54:49
731
原创 NLP:文本数据分析
前文分享了文本张量表示方法,这次分享文本数据分析。关于NLP的文本数据分析,主要是了解标签数量、句子长度、词频及词云等。全文以一数据集做依托分析说明。
2025-07-03 23:34:53
1137
原创 NLP:文本张量表示方法
前言:前文分享了NLP的数据处理的几种方式,本文讲解文本张量的表示方法。张量表示方法主要有三种:**one-hot编码、Word2vec、Word Embedding**,本文也主要介绍这三种方法。
2025-07-02 23:13:49
1386
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅
2