- 博客(10)
- 资源 (1)
- 收藏
- 关注
原创 注意力机制-个人学习心得
模型对变量的权重进行自赋值的过程==self-attention在训练模型的时候,我们会加大某些字的权重,让它在句子中的重要性获得更大的占比Self-Attention 新注意力机制2017年,Google机器翻译团队,《Attention is all you need》中提出。
2024-09-05 20:00:00
672
原创 部署并访问本地模型
官网:https://huggingface.co/HuggingFace 是一个自然语言处理(NLP)领域的开源社区和平台,它提供了一系列强大的工具、库和预训练模型,帮助开发者快速构建和部署自然语言处理应用。HuggingFace 平台的主要组成部分和特点如下:1.:HuggingFace 的 Transformers 库是其最著名和核心的部分。
2024-09-05 06:30:00
1984
原创 大语言模型的进阶之路
大型语言模型(LLM)是指包含数千亿(或更多的)参数的语言模型 这些参数是在大量文本数据上训练的, 例如模型GPT-3、PalM、Galactica和LLAMA 具体来说,LLM建立在Transformer架构之上,其中多头注意力层堆叠在一个非常深的神经网络中 现有的LLM主要采用与小语言模型类似的模型架构(即Transformer)和与训练目标(即语言建模)
2024-09-04 20:26:09
1286
原创 深度学习--个人学习心得
Google Net / Inception Models:包括InceptionV1至InceptionV4等多个版本,通过复杂的"inception模块"提高模型的效率和性能,适合图像分类任务。VGG Networks:一系列深度卷积神经网络,以其层数命名(如VGG16、VGG19),因其简洁和有效性而在图像分类任务中很受欢迎。Residual Networks(Res Nets):引入了残差连接,帮助解决深层网络中的梯度消失问题,使得训练更深的网络成为可能。包括多层感知器(MLP)
2024-09-02 18:30:00
1216
原创 大模型--个人学习心得
大模型LLM,全称Large Language Model,即大型语言模型LLM是一种基于Transformer架构模型,它通过驯良大量文本数据,学习语言的语法、语义和上下文信息,从而能够对自然语言文本进行建模这种模型在自然语言处理(NLP)领域具有广泛应用。
2024-09-02 14:18:18
818
原创 关于Langchain的个人心得
然后,在处理文档B时,会将文档B的内容和之前生成的答案作为上下文,生成一个新的答案。聊天模型是语言模型的一个变体,聊天模型以语言模型为基础,其内部使用语言模型,不再以文本字符串为输入和输出,而是将聊天信息列表为输入和输出,他们提供更加结构化的 API。它利用 React 框架(在 LangChain 的上下文中,React 框架指的是一种用于决定何时调用哪个工具的逻辑框架,而非前端开发中的 React 库)来动态地选择和执行工具,同时利用会话记忆(如对话历史)来增强交互的连贯性和上下文理解能力。
2024-09-01 21:31:25
2973
1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅