
大模型
文章平均质量分 81
AI人工智能时代
【大模型研习社 | 用AI撬动未来】
在这里,你将收获:
零门槛解读ChatGPT、文心一言等前沿大模型核心原理
手把手实战教程:从模型微调到行业级应用落地
每日更新!AIGC创新案例/Prompt技巧/论文精读/工具测评
企业级解决方案 × 个人效率革命,让AI成为你的超能力
我们专注:
▷ 大模型底层架构解密 ▷ 垂直领域应用爆破 ▷ 开发部署避坑指南
▷ 全球AI前沿速递 ▷ 开源项目复现 ▷ 职业发展新赛道
无论你是AI萌新还是资深极客,这里都有你想要的"硬核知识燃料"!
关注即送《大模型实战入门大礼包》,回复"进化"开启你的智能
展开
-
大模型时代人人必修:Attention机制、Transformer深度解析与实战应用(小白也能看懂)
词嵌入(Word Embedding):nn.Embedding层权重矩阵的两种常见选择:(1)使用预训练(Pre-trained) 的Embeddings并固化 (2)对其进行随机初始化(当然也可以选择预训练的结果)并设为可训练的(Trainable)。就像你听一段很长的演讲,可能只记得最后几句话,而忽略了前面的重要内容。从2017年Transformer的提出,到2018年ELMo、GPT-1、BERT等模型的出现,再到2020年GPT-3的惊艳亮相,Transformer的发展可谓日新月异。原创 2025-02-27 11:54:45 · 794 阅读 · 0 评论 -
深入理解大模型之手搓大模型训练(附源码,深入理解)
coeff = 0.5 * (1.0 + math.cos(math.pi * decay_ratio)) # 余弦函数计算衰减系数,范围为0到1。batch_iter = iter_batches(split=split) # 获取对应数据集的批次迭代器。说白了,大模型就像一个“超级学霸”,它“博览群书”(海量数据训练),“过目不忘”(超强记忆力),“举一反三”(生成能力)。tokens_per_iter = batch_size * max_seq_len # 每次迭代处理的token数。原创 2025-02-24 12:26:16 · 1049 阅读 · 0 评论 -
AI画图的秘密武器:Diffusion模型加噪原理大揭秘!(附运行代码,加深理解)
Diffusion模型生图之加噪原理原创 2025-02-19 09:45:00 · 881 阅读 · 0 评论 -
还在手动搜资料?弱爆了!10分钟教你用AI打造“超级调研员”,效率狂飙1000%!(从零搭建附源码)
未来,AI将在更多领域发挥更大的作用,帮助我们提高效率,解放双手!你以为的调研:优雅地坐在电脑前,泡一杯咖啡☕,轻松敲击键盘,各种数据、资料就乖乖地出现在眼前。别担心,不需要你懂复杂的编程,只需跟着下面的步骤,10分钟就能拥有一个强大的AI调研员。简单来说,这段代码定义了一个名叫“Researcher”的AI角色,它具备以下超能力:!今天就教你一个大招,用AI打造一个专属的“超级调研员”,让你的工作效率直接起飞。* 为了找几个关键数据,翻遍了全网,找到的还都是过时的、没用的信息。原创 2025-02-15 08:59:57 · 470 阅读 · 0 评论 -
别再逃避AI了!再不学就晚了!你的职场,正在被一种新物种 т悄悄地颠覆…(从零搭建RAG智能体)
想象一下,如果把你的工作文档、行业报告、学习资料都 “向量化” 存储起来,然后搭建一个专属的AI智能体, 你的工作效率将会提升到什么程度?接下来,我就带你 亲手搭建一个最简单的AI智能体,让你体验一下AI的魔力!想想看,如果你的同事、你的竞争对手,都开始用AI武装自己,工作效率提升了几倍,而你还在用传统的方式埋头苦干,结果会怎样?只要你愿意迈出第一步, 你就能在AI时代找到自己的位置,甚至成为时代的领跑者!你只用了几行代码,就搭建了一个能够理解你的问题,并从专业文档中找到答案的AI智能体!原创 2025-02-13 09:09:16 · 1167 阅读 · 0 评论 -
打工人别再瞎忙了!AI时代,你真正该学的不是“工具”,而是这个…
下载方案2:打开这个链接https://hf-mirror.com/intfloat/e5-large-v2/tree/main,下载除了model.safetensors的以外部分,保存到当前代码同级目录的embedding_model文件夹下。RAG(Retrieval-Augmented Generation)是一种强大的AI技术,它结合了检索和生成模型的优点,能够从海量数据中检索相关信息,并生成高质量的文本。它不仅能提升你的生产力,更能让你从繁琐的工作中解放出来,去做更有价值、更有创造力的事情!原创 2025-02-12 16:48:40 · 411 阅读 · 0 评论