使用DeepSeek的技巧笔记

来源:新年逼自己一把,学会使用DeepSeek R1_哔哩哔哩_bilibili

前言

        对于DeepSeek而言,我们不再需要那么多的提示词技巧,但还是要有两个注意点:你需要理解大语言模型的工作原理与局限,这能帮助你更好的知道AI可完成任务的边界;在和R1合作时,你最好有管理者的思维和经验,你需要知道如何向R1这个聪明程度比你高很多的下属布置你的任务。

        如果不勾选深度思考这个选项,那么就是使用系统默认的V3大模型;最近(2025/2/6)因为网络攻击的问题,联网搜索可能使用效果不佳,但事实上如果想要获取的知识是在2023年12月之前的,那么就没有打开联网搜索的必要。

推理模型与指令模型

        OpenAI的ChatGpt、豆包和DeepSeek-v3都属于指令模型(instruct model),而我们的深度思考R1属于推理模型。instruct model这类模型是专门设计用于遵循指令来生成内容而推理模型是专注于逻辑推理问题解决的模型,能够自主处理需要多步骤分析因果推断或者复杂决策的这

### DeepSeek 70B Notebook 和文档概述 DeepSeek 70B 是一种大规模语言模型,其设计旨在处理复杂的自然语言理解和生成任务。由于该模型属于大参数量的语言模型类别,因此在实际应用中通常会面临较高的计算需求和资源消耗。 为了支持开发者更好地利用这一强大的工具,官方提供了详细的笔记本文档来指导如何有效地部署、调优以及优化性能表现[^1]。这类文档不仅涵盖了基础设置说明,还包括高级特性介绍和技术细节解析等内容,帮助用户充分挖掘模型潜力的同时降低使用门槛。 具体到 DeepSeek 70B 的笔记本或记录文件方面: - **安装指南**:提供有关环境配置的具体步骤,确保能够顺利加载并运行此大型预训练模型。 - **推理示例**:通过具体的 Python 脚本展示了怎样向已加载好的模型发送输入请求,并获取相应的输出结果。 - **微调教程**:针对特定应用场景下可能存在的定制化需求,讲解了基于现有数据集对模型权重进行调整的方法论。 - **最佳实践建议**:分享了一些经过验证有效的技巧用于提升效率或是改善最终效果的质量。 ```python from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "deepseek-ai/deepseek-70b" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) input_text = "Once upon a time," inputs = tokenizer(input_text, return_tensors="pt") outputs = model.generate(**inputs, max_length=50) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值