停更了两周,我一直在沉浸式学习中,研究AI的各种知识。试验在kimi的帮助下,搭起来一个python的Django项目,我不编码也有7、8年了,因为编码调试会被很多原因中断,很费时间,所以把大部分时间放在建模和设计上,但是不编码总感觉缺点什么,但是有了kimi的辅助,就顺利很多,我又可以编码了,有点小兴奋。其实我仅仅是简单使用,感觉效率比之前提升几倍,如果用好了,看来10倍效率没有问题啊!
这一切的背后都是大模型的作用啊,遇事不决问AI已经成为习惯。我找了一个美国的大牛学了解这个模型,因为我以前有统计学和机器学习的认知,而且牛人就是善于把复杂的原理剖析的如此简单,于是我花一天整理了一下,分享给大家,其实无论kimi还是Chatgpt都是一样原理,我们就用Chatgpt举例吧:
\1. Chatgpt真正做的事就是文字接龙:
-
“台湾最高的山是哪座?”——接龙“玉”
-
“台湾最高的山是哪座?玉”——作为新的输入,接龙“山”
-
“台湾最高的山是哪座?玉山”——大模型接龙的结果是一个结束标志。
2.接龙的奥秘是“看概率”加“掷骰子”
对于后面可以接龙的字都有个概率,概率越大,被选中的机会越大,但不是一定选概率最大的,还要进行掷骰子,所以每次的答案不一样。那为啥不是每次选最大的,因为这个原因,如下图:
如果每次选概率最大的,有可能陷入局部最优后,死循环在里面出不来。虽然是掷骰子,概率大的字被命中的概率也大,这种掷骰子进行选择的方式在遗传算法里也很常用,刚好前一段时间我在处理商品在库房库位的摆放优化时用到遗传算法,也用到了这种掷骰子的方式选择下一代。大模型接龙工作方式就这么简单!那他是咋学会的呢?
3.大模型是怎么学习文字接龙的?
首先任何的句子都可以是教材,无论在网上,还是你给输入一段文字,都是大模型学习的教材,这个学习当然离不开大模型的超强大脑Transformer
Transformer是大模型的核心,其实是一个类神经网络,可以简单理解成一个函数,当然这个函数和我们f(x)= ax + b 这种只有两个参数的简单函数比起来复杂很多,有上亿个参数,里面的主要是矩阵的乘法,是线性代数里面的内容,对于线性代数比较熟悉的同学应该不难理解,我后面专门写一个Fransformer的简单原理简介,让不了解矩阵乘法的同学也可以基本了解Transformer的原理。现在我们不去深究Transformer,继续说大模型工作原理,在Chatgpt之前,已经有了3代的Gpt了(注意是Gpt不是Chatgpt)。
2018年第一代模型的参数量是117M,训练数据是1GB,那时候openAI还没有这么出名。上图中参数量Model size可以理解为大模型的天赋,而数据规模Data Size可学习的资料量是大模型的后天的努力。从第一代到第三代,参数越来越多就是越来越聪明,可处理的数据规模越来越大就是后天进步的空间也越来越大。
GPT1 | GPT2 | GPT3 | |
---|---|---|---|
参数量(天赋) | 1.17亿 | 154亿 | 17500亿 |
训练数据(后天努力) | 1G | 40G | 580G |
但是只是从网络学习有缺点,就是有时概率高的接龙可能不是人类认为好的答案,于是OpenAI公司对模型增加了一步“监督式学习”,从GPT进化为Chatgpt,如下图:
监督式学习类似一个老师告诉模型完整的正确答案,这种方式在机器学习里是一种常规操作方式。Gpt中的“P”代表着pre-training,就是模型自己可以进行无监督学习,而为了模型进步更大,大到可以满足人类的需求,需要在老师的指导下继续学习,就是所谓的微调finetune。
4.微调(finetune)的画龙点睛
监督式学习非常重要,可以明显提升答案的准确性:
可以看到,1.3B个参数的小模型人类老师进行微调后,准确率大幅5提升达到了50%以上,可以打败175B没有进行微调的大模型(图中40%)。天资不好的模型有人类老师好好教会胜过没有人类老师教的天资好的模型,监督式学习小模型有机会胜过大模型。
监督式学习真是画龙点睛,明显提升了准确性,而且和传统监督式学习相比,因为模型已经完成了预训练,在进行监督式学习时不需要大量资料了,如下图的英语学习的例子:
人类可以得到93分,假设一个模型用了104种语言做了预训练,接下来你只要老师教它中文考试任务,它就可以考英文,得到得到78分的正确率。
关于大模型的微调,还可以在督导式基础上进行增强式学习,不需要如监督式学习那么耗费人力,因为只要告诉模型答案好或者不好就可以了:
增强式学习要放在最后阶段,因为模型有一定能力后才可以进行。另外增强式学习可以用reward model来进行,就是用一个模型来模拟人的偏好,就可以不用人来进行增强式学习了。
看起来大模型用了一个简单的原理实现了AI的突破:
- 总结一下就是大模型就是在做接龙
- 大力出奇迹,用巨量参数的Transformer,在海量数据中进行预学习(pre-training)的方式学会接龙
- 再用微调(finetune),包括监督学习和增强学习来进行模型的继续学习,完成模型的对齐(alignment),达到人类可用的准确度。
如何零基础入门 / 学习AI大模型?
大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?
”“谁的饭碗又将不保了?
”等问题热议不断。
不如成为「掌握AI工具的技术人」
,毕竟AI时代,谁先尝试,谁就能占得先机!
想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。
但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高
那么我作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,希望可以帮助到更多学习大模型的人!至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费
】
👉 福利来袭
优快云大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈
全套AGI大模型学习大纲+路线
AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!
640套AI大模型报告合集
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
👉 福利来袭
优快云大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费
】
作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。