自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 AI调教秘籍|3步让通用大模型秒变你的专属助手!

例如,指令为 “classify this review”,期望的回复是 “sentiment positive” 或 “sentiment negative” 开头的文本字符串。微调是一种监督学习过程,使用标记示例数据集更新大语言模型的权重,以提高其在特定任务上生成优质回复的能力。更新模型所有权重的指令微调称为全量微调,会产生一个权重更新后的新模型版本。微调后的基础模型(指令模型)在感兴趣的任务上表现更好,如今指令微调是微调大语言模型最常见的方式,听到 “微调” 通常指指令微调。

2025-03-13 22:45:21 128

原创 DeepSeek开源周连甩7大核弹技术

🚀 更震撼的是——所有项目已在生产环境验证,代码完全开源!✨ 关注不迷路~ 当极客精神遇见开源信仰,AGI的星辰大海正在被重新点亮!❶ 全球首个开源EP通信库DeepEP,MoE训练推理效率提升300%+"建议所有AI实验室集体学习DeepSeek范式"成本直降545%,网友:"建议马斯克采购"比某些PPT公司强多了""看完代码直接跪了,原来MoE还能这样玩"网友玩梗:"GPT-5怕是要用中国方案"单节点40GiB/s!硅谷震惊体:"我们的NVMe突然不香了"网友辣评:"英伟达工程师连夜扒代码"

2025-03-05 01:38:22 235

原创 ✨ LLM魔法课堂|调参小技巧让AI文采飞起!✨

→ 例:P=0.3时,选🍰(20%)+🍩(10%)=刚好30%→ 例:K=3时,只在🍰/🍩/☕️里选,拒绝怪词。💡搭配tip:K和P别同时用!2️⃣ 要脑洞大开→高温+Top K/P。1️⃣ 想稳定输出→低温+贪心解码。3️⃣ 防止鬼打墙→必开随机采样!👉 关注我,解锁更多AI黑科技!:AI只在TOP K词池里抽。:累加概率≤P的词池。

2025-03-02 18:29:11 310

原创 一文读懂大语言模型提示工程

📌零样本推理(zero-shot inference):提示里只放输入数据,大模型很擅长,但小模型可能就懵圈了。📌少样本推理(few-shot inference):多给几个不同类型的示例,更小的模型也能明白任务要求。📌提示工程(prompt engineering):不断优化提示,让模型乖乖听话,给出我们想要的结果。📌完成(completion):模型给出的输出文本,也就是它完成任务后的成果。📌提示(prompt):就是咱们喂给模型的文本,它可是引导模型输出的关键~💡 模型性能与示例关系。

2025-03-02 16:17:28 257

原创 Generative AI with Large Language Models - Transformers: Attention is all you need学习笔记(week1-7)

Attention is All You Need》是谷歌研究人员于 2017 年发表的一篇研究论文,该论文引入了 Transformer 模型。这是一种全新的架构,彻底改变了自然语言处理(NLP)领域,并成为我们如今所知的大语言模型(如 GPT、PaLM 等)的基础。论文提出了一种神经网络架构,它用一种完全基于注意力的机制取代了传统的循环神经网络(RNN)和卷积神经网络(CNN)。Transformer 模型使用自注意力机制来计算输入序列的表示,这使其能够捕捉长期依赖关系并有效地并行计算。

2025-03-02 11:18:20 270

原创 Generative AI with Large Language Models - Transformers architecture学习笔记(week1-6)

将对数几率传递给最终的 Softmax 层,归一化为每个单词的概率分数,输出包含词汇表中每个单词的概率,分数最高的词元为最可能预测的词元,课程后续会介绍多种方法从概率向量中进行最终选择。:模型并行处理输入词元,添加位置编码以保留单词顺序信息,不丢失单词在句子中位置的相关性。将输入词元与位置编码相加后,将结果向量传递给自注意力层。:应用所有注意力权重后,输出经全连接前馈网络处理,输出的对数几率(logits)向量与词元化器字典中每个词元的概率分数成比例。

2025-03-02 00:14:47 479

原创 开源界的圣诞老人提前来了?这家自称“车库创业”的AGI团队要连甩五个王炸

从下周开始,我们将开源5个代码库,以完全透明的方式分享我们虽小但真诚的进展。作为开源社区的一部分,我们相信每一行共享的代码都会成为集体动力,加速这一旅程。当别的AI公司还在用PR稿画饼时,这支自称“比你家车库还小"的AGI战队直接掀了牌桌——他们要在下周开启“开源周"!是的你没听错,连续5天每天开源一个生产级项目,这波操作堪比程序员界的“十二道锋味"。要说最骚的操作,还是那句“没有象牙塔"。“每一行代码都是集体动量"这句话值得裱起来——当其他团队还在守护“商业机密"时,这群人直接把研发日志写成开源日记。

2025-02-25 13:38:10 457

原创 Generative AI with Large Language Models - Course Introduction学习笔记(week1-1)

欢迎参加这门关于使用大语言模型的生成式人工智能课程。大语言模型(LLMs)是一项令人兴奋的技术,尽管备受热议,但很多人仍低估其作为开发者工具的强大之处。过去需数月构建的机器学习和人工智能应用,现在几天或几周就能完成。本课程将深入探讨大语言模型技术的运作方式,涵盖模型训练、指令调整、微调以及生成式人工智能项目生命周期框架等技术细节。生成式人工智能,尤其是大语言模型,属于通用技术,类似深度学习和电力,可应用于经济领域的众多场景。如同15年前兴起的深度学习,未来需大家共同确定应用场景并构建特定应用程序。

2025-02-24 23:55:59 541

原创 Generative AI with Large Language Models - Introduction Week1学习笔记(wee1-2)

课程来源:

2025-02-24 23:51:47 305

原创 Generative AI with Large Language Models - Generative AI & LLMs学习笔记(week1-3)

欢迎参加这门关于使用大语言模型的生成式人工智能课程。大语言模型(LLMs)是一项令人兴奋的技术,尽管备受热议,但很多人仍低估其作为开发者工具的强大之处。过去需数月构建的机器学习和人工智能应用,现在几天或几周就能完成。本课程将深入探讨大语言模型技术的运作方式,涵盖模型训练、指令调整、微调以及生成式人工智能项目生命周期框架等技术细节。生成式人工智能,尤其是大语言模型,属于通用技术,类似深度学习和电力,可应用于经济领域的众多场景。如同15年前兴起的深度学习,未来需大家共同确定应用场景并构建特定应用程序。

2025-02-24 23:49:33 589

原创 ToolMaker

Man, as a tool maker, has the ability to make a tool to amplify an inherent ability that he has. And that's exactly what we're doing here. We're making bycicles. But in general what we're doing is we're building tools that amplify a human ability. —— Steve

2025-02-23 21:37:06 450

原创 BugBuster:DeepSeek R1 和 Cursor 强强联手~

这家成立于2023年7月的年轻公司,凭借其低成本、高性能的大语言模型,迅速在全球范围内掀起了一场技术革命,成为春节期间最引人注目的科技话题。当然,由于Claude 3.5具备多模态能力,支持图片识别,但deepseek r1没有此功能,使用时需要注意。2025年春节,当人们沉浸在节日的喜庆氛围中时,中国人工智能领域迎来了一位“新星”——deepseek。业界领先的AI Editor,Cursor,也在1月31日接入了deepseek r1/v3供大家使用。即可在对话框里,无痛使用r1啦。

2025-02-23 21:32:58 342

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除