
NLP实战
文章平均质量分 84
IT大头
wx公众号:AI疯人院 ↷卍菜鸟一枚,会写一点Python,会一点nlp东西,天天头大,不想加班,天天加班,不讲原理只讲实战
展开
-
Python调用讯飞星火大模型v3.x api接口使用教程
Python调用讯飞星火大模型v3, api接口使用教程 ,星火api,Python调用,新增3.5版本星火大模型接口参数原创 2023-10-27 11:38:52 · 19216 阅读 · 69 评论 -
仿TikTok推荐系统开发与部署
本文将教你如何使用4阶段推荐架构、双塔模型设计和Hopsworks AI湖仓构建并部署一个针对H&M时尚商品的实时个性化推荐系统。原创 2025-03-13 17:27:04 · 832 阅读 · 0 评论 -
跟着大厂学AI | 智谱AI文本数据提取实践(大模型实战篇)
智谱glm4大模型文本数据抽取教程,实体抽取,实体识别,llm数据处理实践原创 2024-11-08 10:46:00 · 1277 阅读 · 0 评论 -
跟着大厂学AI | 大模型文本数据提取实践(理论篇)
glm4大模型数据处理实践教程,文本数据实体识别,实体抽取原创 2024-11-08 10:23:12 · 1188 阅读 · 0 评论 -
抖音豆包大模型SFT-监督微调最佳实践
在自然语言处理(NLP)领域,Supervised Finetuning(SFT)是一种至关重要的技术手段,用来提升大模型在某一特定领域的表现。通过精细的策划和实施,SFT 能够指导模型的学习过程,确保其学习成果与既定目标高度吻合。SFT 指的是,用户提供一份标注好的数据集,即,包含输入的 prompt 和预期输出的 response。然后,在已有的某个基座模型上继续调整参数,来达到和下游任务对齐的目的。原创 2024-09-13 09:06:40 · 2749 阅读 · 0 评论 -
抖音豆包大模型Prompt 最佳实践
字节跳动豆包大模型prompt最近实践教程,提示语工程原创 2024-09-12 10:27:23 · 3504 阅读 · 0 评论 -
传统NLP与大模型入门:基础概念篇
本文主要介绍前期传统nlp学习和大模型的一些基础知识和相关概念,方面小白更好的入门和理解。原创 2024-06-12 10:24:35 · 1876 阅读 · 0 评论 -
学习提示词工程
prompt工程,提示词学习案例教程原创 2024-06-27 11:45:47 · 983 阅读 · 0 评论 -
Qwen2开源发布,各方位全面升级!
通义千问2.0,悄悄发布!原创 2024-06-07 14:50:58 · 1007 阅读 · 0 评论 -
阿里AI代码大模型-通义灵码又偷偷升级?
最近,在使用阿里开发的通义灵码大模型时,我萌生了一个想法:考虑到通义灵码会持续进化升级,它是否会与Qwen(阿里云的预训练语言模型)的更新保持同步呢?带着好奇,我尝试提出了一些问题来测试,结果通义灵码的反馈相当出色。这激发了我进一步的兴趣,决定组织一场“智能对话模型比拼”,参赛者阵容包括:通义灵码、通义千问2.5的网页版本、讯飞星火的网页版本,以及OpenAI的两大热门——ChatGPT4和ChatGPT3.5。本次对比从网上寻找了5个问题测试。原创 2024-06-05 19:36:07 · 1445 阅读 · 0 评论 -
Python调用讯飞星火大模型v3.x api接口使用教程2.0(python sdk,支持图片理解)
本篇文章是针对星火大模型api接口使用的新篇章,本次主要是介绍对于pythonSDK使用,以及图片理解等新功能。相对于上篇博客中的使用方法,本次的教程相对来说更简单方便。话不多说,直接享用。Python调用讯飞星火大模型v3, api接口使用教程 ,星火api,Python调用,原创 2024-05-20 11:56:33 · 4088 阅读 · 5 评论 -
微软开源最强小参数大模型—Phi-3 Mini
在未来几周内还会发布70亿参数的Phi-3-small和140亿参数的Phi-3-medium两款小模型。据悉,Phi-3-mini是微软Phi家族的第4代,有预训练和指令微调多种模型,参数只有38亿训练数据却高达3.3T tokens,比很多数百亿参数的模型训练数据都要多,这也是其性能超强的主要原因之一。2023年12月,微软在Phi-1.5基础之上开发了Phi-2,参数只有27亿并且在没有人类反馈强化学习和指令微调的情况下,击败了130亿参数的Llama-2和70亿参数的Mistral;原创 2024-05-07 10:26:06 · 990 阅读 · 0 评论 -
魔搭社区通义千问110B模型推理、微调最佳实践
首个千亿级模型来袭,Qwen1.5-110B,今天发布了base和chat模型,量化模型和GGUF模型也将会发布。Qwen1.5-110B相比72B效果有很大的提升,该提升主要来自模型规模的提升。Qwen1.5-110B和最近发布的SOTA模型Llama-3-70B的性能上相比不分伯仲,未来通义千问团队将会探索模型规模提升和扩展预训练数据规模两种方法同时带来的优势,请大家期待Qwen2!原创 2024-05-06 17:13:23 · 1320 阅读 · 0 评论 -
千亿大模型来了!通义千问110B模型开源!
敬请期待Qwen2!近期,在开源社区中,一系列具有千亿参数规模的大模型陆续出现,这些模型在各类评测中取得了卓越的成绩。该模型在基础能力评估中与Meta-Llama3-70B相媲美,并在Chat评估中表现出色,包括MT-Bench和AlpacaEval 2.0。下面是关于基础语言模型效果的评估,并与最近的SOTA语言模型Meta-Llama3-70B以及Mixtral-8x22B进行了比较。与之前发布的Qwen1.5-72B模型相比,在两个Chat模型的基准评估中,110B表现显著更好。原创 2024-05-06 16:55:01 · 843 阅读 · 0 评论 -
Leonardo 推出新的图片样式指南,实现精确控制图片生成!
对于设计师来说,这个功能可以帮助他们更好地控制设计的视觉风格,无论是在设计连环画还是制作海报时,都能够确保视觉的一致性。通过允许用户上传自定义图片,平台能够更准确地捕捉到用户想要的风格和视觉效果,从而生成更符合用户需求的图片内容。此外,付费用户还可以享受到更多的功能设置,包括样式参考、深度、边缘、草图、姿势、法线、图案、QR、艺术线条等,这些功能都可以帮助他们更好地控制图片生成的过程,实现更好的视觉效果。通过上传参考图片,他们可以更好地控制广告的视觉风格,从而吸引更多的目标用户。感兴趣的小伙伴去试试吧。原创 2024-04-21 15:21:55 · 640 阅读 · 1 评论 -
2万亿训练数据!Stable LM 2-12B加入开源队列
通过这些训练策略的应用,Stability.ai能够有效地训练出性能强大的Stable LM 2 12B/1.6B模型,同时保证了训练的效率和模型的质量。通过在这些数据集上的预训练,Stable LM 2 12B/1.6B能够吸收和学习到大量的知识和语言模式,从而提高其在多种自然语言处理任务中的表现。模型微调阶段,Stability.ai使用了监督微调(SFT)、直接偏好优化(DPO)和自我知识学习三种方法,对生成的文本进行排序,然后使用排序结果来调整模型的参数,使其生成更符合人类偏好的文本。原创 2024-04-10 19:01:01 · 447 阅读 · 0 评论 -
真·人工智障!“弱智贴吧”竟被用来训练大模型
离了个大谱,弱智吧登上正经AI论文,还成了最好的中文训练数据?中国科学院、北京大学、中国科学技术大学、滑铁卢大学以及01.ai等十家知名机构联合推出了一款专注于中文的高质量指令调优数据集——COIG-CQIA。原创 2024-04-10 18:49:09 · 1134 阅读 · 0 评论 -
Suno AI音乐生成!人人都是作曲家
Suno AI,这个革命性的人工智能音乐创作平台,是全球领先的科技创新企业Anthropic以及相关尖端科研团队经过深入研发和精心打磨的成果。该解决方案以创新的视角,将尖端的人工智能技术与艺术创作领域深度融合,为音乐创作开辟了全新的领域,赋予用户前所未有的音频内容生成能力。在技术架构上,Suno AI巧妙地运用了先进的深度学习算法和复杂的神经网络模型,构建了一种强大的智能化音乐创作引擎。原创 2024-04-02 14:51:59 · 1441 阅读 · 0 评论 -
StreamingT2V文本生成视频多模态大模型,即将开源!
传统视频模型一直受训练数据、算法等困扰,最多只能生成10秒视频。Sora的出现将文生视频领域带向了一个全新的高度,突破了诸多技术瓶颈,仅通过文本就能生成最多1分钟的视频。而StreamingT2V采用了创新的自回归技术框架,通过条件注意力、外观保持和随机混合三大模块,极大的延长了视频的时间,同时保证动作的连贯性。简单来说,StreamingT2V使用了一种“击鼓传花”的方法,每一个模块通过提取前一个视频块中的表示特征,来保证动作一致性、文本语义还原、视频完整性等。条件注意力模块。原创 2024-04-02 14:36:07 · 1940 阅读 · 0 评论 -
机器学习中的多标签问题
假设我们有一个电影评论数据集,其中包含了用户对电影的评论以及相关的标签。我们的目标是根据评论内容来预测电影的类型,并为每个电影分配多个标签,例如"动作"、"喜剧"、"爱情"等。模型选择和训练:选择适当的多标签分类算法,如多标签支持向量机(ML-SVM)、多标签朴素贝叶斯(ML-NB)、多标签随机森林(ML-RF)等,并使用准备好的数据集对模型进行训练。预测和应用:在模型经过训练和调优后,我们可以使用它来对新的电影评论进行分类预测,并为每个评论分配适当的标签。这样,我们就可以根据用户的评论了解电影的类型。原创 2023-10-28 15:22:03 · 328 阅读 · 0 评论 -
马斯克旗下xAI正式宣布开源大模型Grok-1
根据xAI公布的数据,在GSM8K、HumanEval和MMLU等一系列基准测试中,Grok-1的表现超过了Llama-2-70B和GPT-3.5,虽然跟GPT-4还差得远。Grok最初的版本Grok-0拥有330亿参数,紧接着xAI推出了经过数次改进的Grok-1,为X上的Grok聊天机器人提供支持。但此次xAI并没有放出Grok-1的具体测试成绩,其与OpenAI即将发布的GPT-5的大模型王者之战,必将成为业内关注的焦点。连OpenAI的员工,都表示了自己对Grok的强烈兴趣。官网放出的信息如下——原创 2024-03-19 09:06:09 · 1356 阅读 · 0 评论 -
手把手教你从零搭建自己的知识库
Word2Vec是一种用于处理自然语言处理的模型,它是在2013年由Google的研究员Mikolov等人首次提出的。Word2Vec通过训练海量的文本数据,能够将每个单词转换为一个具有一定维度的向量。这个向量就可以代表这个单词的语义。因为这个向量是在大量语境中学到的,所以这个向量能很好的表达这个单词的语义。Word2Vec包括Skip-Gram和CBOW两种模型,主要是通过优化模型计算词与词之间的关系,从而获得词的向量表示。Skip-Gram模型是通过一个词预测其上下文。原创 2024-03-16 11:38:00 · 2126 阅读 · 0 评论 -
coze!属于人工智能领域的低代码工具 | 搭建属于自己的聊天机器人
扣子(英文名称 Coze) 是新一代一站式 AI Bot 开发平台。Coze 是由字节跳动推出的一个AI聊天机器人和应用程序编辑开发平台,可以理解为字节跳动版的GPTs。无论你是否有编程基础,都可以在扣子平台上快速搭建基于 AI 模型的各类问答 Bot,这个平台都可以让你快速地创建各种类型的聊天机器人,并将它们部署在其他社交平台和消息应用上。Coze还提供了多种插件、知识、工作流、长期记忆和定时任务等功能,来增强聊天机器人的能力和交互性。原创 2024-03-02 11:18:20 · 12481 阅读 · 0 评论