大模型探索:Datawhale llm-universe Task1 简介

部署运行你感兴趣的模型镜像

intro to LLM

  • 大模型发展路线图

  • 做了个导图简单汇总 开源和闭源大模型

intro to langchain

langchain 架构图

找到了一张很好的图,清晰地说明了langchain的六个核心模块分别是干啥的,以及相互怎么交互

相关的链接
Modules | 🦜️🔗 Langchain

下面我依据图来做一个langchain架构的解析

6 个核心模块组成:

  • (Model I/O)
    :以prompt来处理LLM的输入(模板template等)和输出(调整格式)
  • (Data connection)
    :从网络or向量数据库中检索文本并分割成小块(LLM处理长度有限)
  • (Chains)
    :Let LLM process step by step. 如此可以形成流水线,加快效率
  • (Memory)
    :主要用于维护LLM的短期记忆(其实就是上下文状态)
  • (Agents)
    :最早应该是起源于论文ReAct,让LLM在文字推理中学会调用一下外部api (感兴趣的可以看之后的文章,toolformer和graph-toolformer等)
  • (Callbacks)
    :跟踪大模型的状态等,例如其参数verbose就是对应一个回调函数

您可能感兴趣的与本文相关的镜像

Stable-Diffusion-3.5

Stable-Diffusion-3.5

图片生成
Stable-Diffusion

Stable Diffusion 3.5 (SD 3.5) 是由 Stability AI 推出的新一代文本到图像生成模型,相比 3.0 版本,它提升了图像质量、运行速度和硬件效率

TimeCMA是一种创新性的多变量时间序列预测(MTSF)框架,它通过跨模态对齐的方式,利用大型语言模型(LLM)来提升预测性能[^1]。这一方法的设计目的是解决传统时间序列预测模型在处理高维、复杂时空依赖性和多尺度动态方面的不足。TimeCMA的核心在于其跨模态对齐模块,该模块基于信道间相似性检索来聚合时间序列和LLM分支,从而增强模型的预测能力[^1]。 在TimeCMA中,时间序列数据和由LLM生成的提示嵌入被有效结合,前者提供了解耦但可能较弱的时间序列嵌入,后者则提供了纠缠但鲁棒的提示嵌入[^2]。这种双模态编码策略使得TimeCMA能够更好地捕捉时间序列中的长期依赖关系,同时克服了LLM在处理多尺度动态和季节模式上的局限性。 此外,TimeCMA通过使用最后一个token嵌入来减少计算成本和加速LLM方法的推理速度,这表明了其在实际应用中的高效性和可行性。这种方法不仅提高了预测的准确性,还增强了模型的可解释性,这对于需要高度透明度的应用场景尤为重要。 ### 示例代码 下面是一个简化的示例,展示如何构建一个基本的时间序列预测模型,尽管它并不直接实现TimeCMA,但可以作为理解其工作原理的基础。 ```python import numpy as np from tensorflow.keras.models import Sequential from tensorflow.keras.layers import LSTM, Dense # 构建LSTM模型 model = Sequential() model.add(LSTM(50, activation='relu', input_shape=(n_steps, n_features))) model.add(Dense(1)) model.compile(optimizer='adam', loss='mse') # 准备数据 def split_sequence(sequence, n_steps): X, y = [], [] for i in range(len(sequence)): end_ix = i + n_steps if end_ix > len(sequence)-1: break seq_x, seq_y = sequence[i:end_ix], sequence[end_ix] X.append(seq_x) y.append(seq_y) return np.array(X), np.array(y) # 定义输入序列 raw_seq = [10, 20, 30, 40, 50, 60, 70, 80, 90] n_steps = 3 n_features = 1 X, y = split_sequence(raw_seq, n_steps) X = X.reshape((X.shape[0], X.shape[1], n_features)) # 拟合模型 model.fit(X, y, epochs=200, verbose=0) # 进行预测 x_input = np.array([70, 80, 90]) x_input = x_input.reshape((1, n_steps, n_features)) yhat = model.predict(x_input, verbose=0) print(yhat) ``` 此代码片段演示了如何使用Keras库中的LSTM层来构建一个简单的递归神经网络模型,用于时间序列预测。虽然这不是TimeCMA的具体实现,但它可以帮助理解时间序列预测的基本概念。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值