DeepSeek:从入门到精通

资料链接
链接:https://pan.quark.cn/s/8212f30a4fde
清华大学第一弹:DeepSeek从入门到精通
清华大学第二弹:DeepSeek赋能职场
清华大学第三弹:普通人如何抓住DeepSeek红利
清华大学第四弹:DeepSeek+DeepResearch让科研像聊天一样简单
清华大学第五弹:DeepSeek与AI幻觉

一、Deepseek是什么?

  DeepSeek是一家专注通用人工智能(AGI)的中国科技公司,主攻大模型研发与应用。其中,DeepSeek-R1是其开源的推理模型,擅长处理复杂任务且可免费商用。

1.1、Deepseek能够做什么?

  直接面向用户或者支持开发者,提供智能对话文本生成语义理解计算推理代码生成补全等应用场景,支持联网搜索深度思考模式,同时支持文件上传,能够扫描读取各类文件及图片中的文字内容。
在这里插入图片描述

1.2、如何使用Deepseek?

Deepseek官网
在这里插入图片描述

二、推理模型和通用模型

  推理大模型: 推理大模型是指能够在传统的大语言模型基础上,强化推理、逻辑分析和决策能力的模型。它们通常具备额外的技术,比如强化学习、神经符号推理、元学习等,来增强其推理和问题解决能力。

  • 例如:DeepSeek-R1,GPT-o3在逻辑推理、数学推理和实时问题解决方面表现突出。

  非推理大模型(通用模型): 适用于大多数任务,非推理大模型一般侧重于语言生成、上下文理解和自然语言处理,而不强调深度推理能力。此类模型通常通过对大量文本数据的训练,掌握语言规律并能够生成合适的内容,但缺乏像推理模型那样复杂的推理和决策能力。

  • 例如:GPT-3、GPT-4(OpenAI),BERT(Google),主要用于语言生成、语言理解、文本分类、翻译等任务。

在这里插入图片描述
  CoT链式思维的出现将大模型分为了两类:“概率预测(快速反应)”模型和“链式推理(慢速思考)”模型。前者适合快速反馈,处理即时任务;后者通过推理解决复杂问题。了解它们的差异有助于根据任务需求选择合适的模型,实现最佳效果。
在这里插入图片描述

2.1 提示语差异

  提示语(Prompt)是用户输入给AI系统的指令或信息,用于引导AI生成特定的输出或执行特定的任务。简单来说,提示语就是我们与AI“对话”时所使用的语言,它可以是一个简单的问题,一段详细的指令,也可以是一个复杂的任务描述。提示语的基本结构包括指令、上下文和期望。
指令(Instruction):这是提示语的核心,明确告诉AI你希望它执行什么任务。
上下文(Context):为AI提供背景信息,帮助它更准确地理解和执行任务。
期望(Expectation):明确或隐含地表达你对AI输出的要求和预期。

推理模型通用模型
提示语更简洁,只需明确任务目标和需求(因其已内化推理逻辑)需显式引导推理步骤(如通过CoT提示),否则可能跳过关键逻辑
无需逐步指导,模型自动生成结构化推理过程(若强行拆解步骤,反而可能限制其能力)依赖提示语补偿能力短板(如要求分步思考、提供示例)

2.1.1 关键原则

模型选择:优先根据任务类型而非模型热度选择(如数学任务选推理模型,创意任务选通用模型)。
提示语设计:推理模型:简洁指令,聚焦目标,信任其内化能力。(“要什么直接说”)。通用模型:结构化、补偿性引导(“缺什么补什么”)。
避免误区:不要对推理模型使用“启发式”提示(如角色扮演),可能干扰其逻辑主线。不要对通用模型“过度信任”(如直接询问复杂推理问题,需分步验证结果)。

2.1.2 任务需求与提示语策略

在这里插入图片描述

2.1.3 如何向AI表达需求

在这里插入图片描述

2.2 提示语类型

  1. 指令型提示语:直接告诉AI需要执行的任务。
  2. 问答型提示语:向AI提出问题,期望得到相应的答案。
  3. 角色扮演型提示语:要求AI扮演特定角色,模拟特定场景。
  4. 创意型提示语:引导AI进行创意写作或内容生成。
  5. 分析型提示语:要求AI对给定信息进行分析和推理。
  6. 多模态提示语:结合文本、图像等多种形式的输入。

2.3 调教AI秘籍

在这里插入图片描述

2.4 常见陷阱与应对

2.4.1 缺乏迭代陷阱:期待一次性完美结果

在这里插入图片描述

2.4.2 过度指令和模糊指令陷阱:当细节淹没重点或意图不明确

在这里插入图片描述

2.4.3 假设偏见陷阱:当AI只告诉你想听的

在这里插入图片描述

2.4.4 幻觉生成陷阱:当AI自信地胡说八道

在这里插入图片描述

2.4.5 忽视伦理边界陷阱:低估AI的伦理限制

在这里插入图片描述

2.4.6 挖掘反向思维:从非传统角度切入

在这里插入图片描述

2.4.7 灵活运用任务开放性:给AI自由发挥的空间

在这里插入图片描述

2.5 AI缺陷:臆造之辞 概率幻觉

  AI幻觉(AI Hallucinations)是指生成式人工智能模型在生成文本或回答问题时,尽管表面上呈现出逻辑性和语法正确的形式,但其输出内容可能包含完全虚构、不准确或与事实不符的信息。形成原因:AI幻觉的产生通常是由于模型在缺乏相关信息的情况下,通过概率性选择生成内容,而非基于真实世界的知识库或逻辑推理,这使得其输出不仅难以信赖,且可能误导用户。

2.6 提示词框架

2.6.1 TASTE框架

在这里插入图片描述

2.6.2 ALIGN框架

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值