Datawhale LLM-universe task2

在Task1中对LLM有了一些背景和理论上的了解以后, Task2就是让我们可以实操试一下如何以调用API的方式调用各家的LLM base大模型, 在课程中提供的一部分模型, 比如openai、千帆、星火、智谱的大模型等, 各个大模型的API调用稍有不同但是基本上都是需要相应的API key, 设置到.env中后, 再利用dotenv加载. 之后再根据各个大模型的接口, 对模型进行初始化, 在下面贴个图方便记忆.

一、初次使用LLM
在这里插入图片描述
质朴的初始化比较简单, 只需要初始化ZhipuAI这个类就可以, 然后我们使用prompt获取返回completion的函数中需要接收prompt参数、model、还有用于调整模型输出是否放飞自我的temprature, 特别我发现了一个反直觉的地方, 不是所有模型的temprature的定义域都是0-1的, 智谱的是(0, 1)开区间, 这里需要注意一下.
以下是我改了一模型和prompt参数的输出
可以看见flash模型输出的结果就比较简短
把模型改回默认参数 再看看输出
可以看到用GLM4-plus模型的输出就很长
模型的大小对于生成的响应还是有些联系的
把temprature改小 看看效果

temprature改成0.1
可以看到, 这时候智谱就把自己当作了GPT4(笑哭, 我推测是用GPT4的输出进行训练的, temprature越小就越容易用用于训练的语料来做输出, 输出会更保守)
记录zhipuai的传入参数
在这里插入图片描述
二、结构化prompt和结构化输出
在这里插入图片描述
可以看到, 加和不加分隔符的结构化prompt区别会对LLM的completions造成比较大的影响, 像下面不使用分隔符时, 模型就会没有按照我们的guidance输出, 甚至这个输出有的时候还会暴露一些训练数据, 例子如下(这个人工智能助手很多LLM都用于训练了 可能看不出来啥, 就记录个大致的意思, 这里temprature调低了)
在这里插入图片描述
我们可以通过prompt让模型给我们一些结构化的输出 比如json
在这里插入图片描述
还有xml
在这里插入图片描述
LLM的few shot的能力也很强
在这里插入图片描述
指导LLM发现解决方法(我这里用的是GLM4-plus,模型已经能指出错误和并改正错误了, LLM的进步还是很快的呀)
在这里插入图片描述
重新设计prompt后
在这里插入图片描述
三、大模型的幻觉
简单来说就是大模型毕竟是个生成模型, 会出现一些错误, 生成一些错误的知识或者直接给你虚构知识, 下面我把temprature调大展示一下
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
结果可以发现arxiv号和文章名称根本对不上, 笑死, 这个幻觉问题是各家大模型都在极力解决的问题(我这里特意看幻觉把temperatrue调整到了0.99, 实际使用时不会这么离谱的)

本课题设计了一种利用Matlab平台开发的植物叶片健康状态识别方案,重点融合了色彩与纹理双重特征以实现对叶片病害的自动化判别。该系统构建了直观的图形操作界面,便于用户提交叶片影像并快速获得分析结论。Matlab作为具备高效数值计算与数据处理能力的工具,在图像分析与模式分类领域应用广泛,本项目正是借助其功能解决农业病害监测的实际问题。 在色彩特征分析方面,叶片影像的颜色分布常与其生理状态密切相关。通常,健康的叶片呈现绿色,而出现黄化、褐变等异常色彩往往指示病害或虫害的发生。Matlab提供了一系列图像处理函数,例如可通过色彩空间转换与直方图统计来量化颜色属性。通过计算各颜色通道的统计参数(如均值、标准差及主成分等),能够提取具有判别力的色彩特征,从而为不同病害类别的区分提供依据。 纹理特征则用于描述叶片表面的微观结构与形态变化,如病斑、皱缩或裂纹等。Matlab中的灰度共生矩阵计算函数可用于提取对比度、均匀性、相关性等纹理指标。此外,局部二值模式与Gabor滤波等方法也能从多尺度刻画纹理细节,进一步增强病害识别的鲁棒性。 系统的人机交互界面基于Matlab的图形用户界面开发环境实现。用户可通过该界面上传待检图像,系统将自动执行图像预处理、特征抽取与分类判断。采用的分类模型包括支持向量机、决策树等机器学习方法,通过对已标注样本的训练,模型能够依据新图像的特征向量预测其所属的病害类别。 此类课题设计有助于深化对Matlab编程、图像处理技术与模式识别原理的理解。通过完整实现从特征提取到分类决策的流程,学生能够将理论知识与实际应用相结合,提升解决复杂工程问题的能力。总体而言,该叶片病害检测系统涵盖了图像分析、特征融合、分类算法及界面开发等多个技术环节,为学习与掌握基于Matlab的智能检测技术提供了综合性实践案例。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
### 大型语言模型生态系统 #### 构成要素 大型语言模型生态系统的构成要素主要包括数据源、预训练框架、微调工具集以及下游应用接口。这些组件共同作用,使得LLM能够处理各种自然语言任务并提供广泛的服务。 - **数据源**:高质量的数据对于构建有效的LLM至关重要。这不仅限于文本本身还包括元数据和其他辅助信息。通过多样化的数据输入,可以增强模型的理解能力和表达能力[^1]。 - **预训练框架**:这是指用于开发和优化神经网络架构的技术栈,如TensorFlow或PyTorch等平台支持下的Transformer结构。它们允许研究人员快速迭代实验设计,并利用分布式计算资源加速训练过程[^2]。 - **微调工具集**:为了使通用的语言理解技能适应特定领域的需求,通常需要针对目标场景调整权重参数。为此目的而创建的各种API和服务简化了这一流程,降低了进入门槛的同时提高了效率[^3]。 - **下游应用场景**:最终用户交互界面构成了整个链条的最后一环;无论是聊天机器人还是自动摘要生成器,在实际部署之前都需要经过严格的测试来验证性能指标是否满足预期标准。 ```python import transformers as trfms from datasets import load_dataset model_name = "bert-base-uncased" tokenizer = trfms.BertTokenizer.from_pretrained(model_name) dataset = load_dataset('imdb') ``` #### 半参数化方法的优势 相比于完全依赖内部参数存储世界知识的传统做法,引入外部记忆机制后的混合模式能够在保持灵活性的基础上显著提升检索精度与响应速度。具体来说就是把静态的记忆单元替换成了动态查询接口,从而更好地应对长尾分布特征带来的挑战。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值