学习目标:
- 了解要学习些什么
- 达到一个什么要求
学习内容:
- 知道了AI有多模态,往往一件事情需要多个模型组合完成
- 每节课一般都会有实战训练
- 往往一个模型比如豆包,80%的问题能回答,但是相对一些专业性的问题,其实还需要对模型微调 (fine-tuning?)
- 从聊天到画图,就是两种模态,体现了现在很多场景需要多模态结合
- 微调:在原有的大模型基础上做一些参数调整。参数高校微调。
- 框架:LangChain:定义个性化结果
- 工具: https://www.liblib.art/ ,https://www.coze.cn/
- 低代码:只需要很少的代码,甚至不需要写代码
- 要求大模型做决策,不太靠谱,不准确。需要用决策式AI。所以这种情况不要直接用大模型,而是让大模型调用工具,调用决策型的工具
- https://zhida.zhihu.com/
- 多智能体协同工作
- 企业级大模型。私有部署;企业内部知识;
Q&A
Q:奖励模型A B C D,标注后,AI记录的是每一个回答?还是根据答案来变更下一个字的输出概率?
Q:训练奖励模型和强化学习优化模型是不同的两个模型吗,啊?!!!!不太理解这两个概念
强化学习 是一种学习方式,是AI自己探索,调整参数;
AI探索调整参数之后,给出自己的答案 => 人类再根据这个答案进行Rank List 反馈;
如果是方法1,人把答案写好,让AI去记忆 => 监督学习
Q:Fine-tuning 为什么在多个阶段都处在,而不是只在SFT?
https://help.aliyun.com/zh/model-studio/use-qwen-by-calling-api?disableWebsiteRedirect=true
长期记忆可以人为定义从哪些维度特征定义
现在ChatGPT里面开启记忆功能以后,它能记住多少内容呢?
Q:老师,请问实际项目中调用千问系列的模型是dashscope用的多还是openai兼容用的多?
两个都可以,我一般用 dashscope
GPT的那个记忆问题请老师再辛苦回答一下,刚才黑屏了“现在ChatGPT里面开启记忆功能以后,它能记住多少内容呢?”
Q:AI如何知道用户有没有让其长期记忆信息的想法?如果AI记住了用户的名字,而这个名字是用户无意间透露的一个错误信息,那后续岂不是会很尴尬。
CY,ABC
=> 记忆体 是一个文档,根据上下文进行更新;
role: 角色,可以是 ‘system’ (系统指示)、‘user’ (用户提问) 或 'assistant’ (AI回复)。
系统角色:放到最开始的位置,说明这个助手的角色定位
用户角色:用户提问的问题
assistant角色:AI回复
Q:那个token的200K限制,是被什么限制了?
每个模型都有上下文的窗口大小
Q:code里面的function和tool有什么区别? 什么时候用functions什么时候用tools?
功能是一样
Q:意思是deepseek窗口中,文字太多,就不工作了吗
对的,任何大模型都有上下文的窗口大小的限制
Q:为啥要用jupter跑python的代码呀
方便演示
Q:funcion 的内容如果返回的值超过大模型的tonken,会不会有异常?
会的,超出大模型的上下文的窗口,都会报错
Q:jupter集成了python环境
是的
Q:超过Token限制只能新开一个对话吗?上下文就都没了吗?
开新的对话,就没有历史记忆了
如果当前超过了Token,你可以截断一些,满足上下文窗口大小,再让LLM进行推理
Q: 假如我们有10个function, 那么每次发送信息时候都需要把10个API的信息 发给大模型吗
对的
Q:情感分析的代码在pycharm上跑,出不来结果,也没有报错这是为什么?
你看下有没有print
Q:claude和Trae哪个好用?
我喜欢Claude,因为能力强
Trae 免费,所以也不错
Q:新开对话上下文没有了,有个类似session回话的东西
Q:训练大模型的时候,有的时候每个答案好坏区别不明显,两个不同的测试员可能会给出不同的ranking。这种情况怎么办?
确实会存在这样的问题,但也不用太担心
因为LLM训练数据,本身也不是100%正确,会有一些错误的信息。只要错误的信息比例不是很高,还是可以让大模型能学一些正确的内容
Q:天气示例为什么第一次调用大模型没有调用function call呢
应该是有的
Q:老师,第四个运维代码是虚拟监控吧,如果要真实监控系统,第三方api一般是哪个啊?
对的 虚拟监控,这个要看系统底层
Q:用cursor提问,他跟我说you’ve hit your usage limit 就是超token了吗
Cursor是付费工具,你可以用 trae, wucai(设置/auth 里面的 QwenAuth)
Q:怎么截断
比如设置 最近5轮对话
Q:fuction call 是啥?
函数调用,是大模型调用外部工具的一种能力。比如获取天气
Q:.py和ipynb有什么区别
.py 是python的脚本,源代码
ipynb 是jupyter notebook的形式,是个网页版,里面有python代码 和 运行的结果
Q:jupyter是用阿里云的API key还是OpenAI的API?
我们现在的代码,是用的阿里云DASHSCOPE API KEY
Q:老师有几个小白问题:
1.黑盒是人写出来的吗? => 黑盒代表的是大模型的运行,像一个黑箱子一样,人们不太好理解里面到底每一步做了什么
为什么大模型自己能从input到output?
2.wucai是大模型吗?
是大模型的应用,是用大模型帮用户进行编程
3.Dashscope有免费额度送吗要安装吗
新手注册后,30天有100万的免费额度
使用Python的时候,需要 pip install dashscope
Q:市面上是不是有很多类似dashscope的平台,企业应用可以使用dashscope吗
对的,比如 硅基流动
Q:老师,请问示例里的function,可以是个API接口吗?比如公司内部系统的接口?调用的时候要封装成mcp才能调用吗?
可以的,可以在function里面访问你的API接口
Q:有害信息定义是啥包括哪些
跟人类的意图不一样的;
Q:在百炼控制台,一直显示dashscope未开通,也没找到在哪里开通
http://class.wucai.com/#/3-dashscope
Q:大模型是不是对于大多数数据和场景都可以训练?例如:一个场景在大模型中之前一直都没有数据。是不是往大模型中不断喂数据就能训练出想要的模型来?
大模型就像“人”一样,通过喂数据可以训练出来一个垂类的大模型
Q:tempreture越低以及top p 越低 指令遵循能力越好嘛?
会更稳定
Q:环境变量设置成功了,为什么运行代码还是提示找不到API Key?
restart
Q: 像豆包这类产品,代码逻辑也跟天气这几个应用案例一样吗?封装大模型外接API?
LLM + tools
Q:答案的概率是怎么算的,是不是所有可能答案概率总和是100%。那增加temperature,所有答案的概率都提升吗?如果这样,概率总和是不是就超过100%?
总和=100%,temperature提升是改变 分布的概率
Q:我们刚才所做的case,实质就是调用部署在云端的大模型api来驱
使大模型使用本地函数执行工作,对吗?这样使用大模型的形式,是会自动累积上下文吗?
是的,会的
Q:老师,可以再讲讲问问第一个情感分析的message吗?没有理解你append的消息是什么
Q:老师,大数据模型怎么和java项目结合
做一个Java助手的LLM应用
Q:dashscope可以调哪些大模型的api
https://dashscope.console.aliyun.com/model
Q:今天的代码,保存成 .py 格式的文件,就是封装吗,写了个代码保存后怎么使用呢
.py 是原始代码,可以运行 .py
Q:为啥问情感分析的读到了环境变量,但是天气的读不到,我在脚本中写死可以后才可以。
API调用出错: No api key provided
Q:怎么截取最近5次,直接在代码里写吗?
让AI帮你写
Q:设置环境变量新建的变量名和变量值是啥
新建的变量 DASHSCOPE_API_KEY
变量值 就是在百炼上面注册得到的 API KEY
Q:append进去是啥意思
在原有的数组上进行添加
Q:怎样把情感分析等示例导入JupyterLab?
启动jupyterlab,然后找到对应的文件夹,打开文件即可
Q:老师老师!我想问下!大模型如果实现了私有化本地部署,是不是每次与大模型交互就不用消耗付费Token了?
对的,不消耗外部的token,你本地也是有token消耗的,只是不需要花额外的钱

被折叠的 条评论
为什么被折叠?



