- 博客(3)
- 收藏
- 关注
原创 Datawhale CAMEL Multi-agent学习笔记-第二章/task 02
ICL(In-Context Learning,上下文学习)是大型语言模型(如 GPT、PaLM、LLaMA 等)的核心能力之一,指模型仅通过输入提示(Prompt)中的上下文示例,即可在不更新模型参数的情况下完成新任务。它利用预训练阶段学习到的通用语言理解能力,通过示例或指令直接指导模型生成目标结果。任务简单、示例明确数据不足或需快速迭代模型足够大(如 70B+ 参数)复杂逻辑、严格格式或领域知识密集的任务小模型(<10B 参数)处理高精度需求。
2025-02-17 03:40:56
1742
原创 Datawhale Fun-transformer task01 引言 笔记
一、Intro## 1. Seq2Seq模型### 1.1 基本概念- **定义**:处理可变长度输入输出序列的模型- **核心标记**:- `<bos>`:序列开始符- `<eos>`:序列结束符- **处理优势**:- 减少对填充的依赖- 动态识别序列边界### 1.2 发展背景- **前身局限**:- 固定长度输入输出- 依赖填充(padding)处理- 掩码机制引入计算复杂度- **突破方向**:- 机器翻译- 语音识别。
2025-02-13 01:33:26
1131
原创 Datawhale CAMEL Multi-agent学习笔记-第一章/task 01
在 Windows 系统中,通常直接使用 `python --version` 而不是 `python3 --version`。- 确保使用正确的文件格式(.py 而不是 .ipynb,除非您使用 Jupyter Notebook)2. 您尝试检查 Python 版本,使用的命令是 `python3 --version`。- 如果只是想使用 CAMEL,建议使用第一种方式(PyPI 安装)对于初学者来说,推荐使用第一种方式(PyPI 安装)。最终的功能是一样的,区别主要在于安装方式和使用场景。
2025-02-12 00:58:04
1547
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅