作为每天和大模型打交道的技术人员,你是否正被这些问题折磨:
- 传入长文档让模型生成分析报告,结果直接提示“上下文长度超限”,内容根本无法生成;
- 多轮打磨产品需求文档,到第8轮时模型突然遗漏早期关键需求,输出内容残缺不全;
- 间隔几轮无关对话后,再让模型续写之前的代码,它完全“忘了”之前的开发思路。
这些问题的根源都是「上下文受限」,但不用急着更换大模型或付费扩容——本文将用全开源技术栈,针对每类痛点给出“一步一操作”的解决方案,你只需跟着复制代码、执行步骤,就能立刻解决当下的问题。

01 先明确:你遇到的是哪类上下文问题?
在动手解决前,先精准定位自己的痛点类型,避免盲目尝试:
| 痛点类型 | 典型场景 | 模型表现 | 核心原因 |
|---|---|---|---|
| 类型1:内容无法生成 | 传入长文档(>8k Token)、多轮对话累积超窗 | 提示“上下文长度不足”,直接拒绝生成;或生成时卡顿、超时崩溃 | 上下文Token总量超过模型窗口上限(如Qwen3 8B默认8k窗口) |
| 类型2:输出不完整 | 让模型生成长报告、多章节文案、完整代码块 | 只生成部分内容(如报告写了2章就中断)、代码缺失关键函数、逻辑断层 | 剩余上下文窗口不足以容纳完整输出,模型被动“截断”内容 |
| 类型3:记忆丢失/混淆 | 多轮对话中包含关键需求(如受众、格式、核心指标),或间隔无关对话 | 后期输出偏离早期需求(如忘了“面向后端开发者”)、混淆不同文档内容 | 关键信息被冗余内容淹没,或早期信息因超窗被删除(上下文腐烂) |
核心原则:不用追求“更大窗口的模型”,先用上下文工程把现有开源模型的窗口利用率拉满,成本最低、见效最快!

02 前置准备:3分钟搭好开源技术栈
所有解决方案基于以下开源工具,先完成环境配置(复制命令直接执行),避免后续操作卡壳:
2.1 核心依赖安装
#
基础依赖:LangChain(上下文管理核心)、VLLM(生产级大模型部署,支持高并发)
pip install langchain==0.2.10 vllm==0.4.0
#
向量检索:Milvus(生产级开源向量库,支持分布式部署,更通用)
pip install pymilvus==2.4.4 # Milvus Python客户端
#
嵌入模型依赖:生产常用开源嵌入模型支持
pip install sentence-transformers==2.2.2
#
辅助工具:文本处理、日志监控、PyTorch(VLLM依赖)
pip install python-dotenv==1.0.0 tqdm==4.66.4 torch>=2.0.0
2.2 基础大模型部署(以Qwen3 8B为例)
#
1. 安装基础组件
#
注意:需提前安装PyTorch(参考官网:https://pytorch.org/get-started/locally/)
#
补充:Milvus向量库部署(Docker快速启动,生产通用方案)
docker run -d --name milvus-standalone -p 19530:19530 -p 9091:9091 milvusdb/milvus:v2.4.4 standalone
#
2. 启动VLLM服务(生产级部署,支持高并发/批量推理,以Qwen3 8B为例)
#
--port 指定服务端口,--tensor-parallel-size 1 单卡部署(多卡可调整为显卡数量)
vllm serve Qwen/Qwen3-8B-Instruct:latest --port 8000 --tensor-parallel-size 1
#
3. 测试服务是否启动成功(分别验证VLLM和Milvus)
#
验证VLLM:执行curl命令,返回正常则说明启动成功
curl http://localhost:8000/v1/completions -H "Content-Type: application/json" -d '{"model":"Qwen/Qwen3-8B-Instruct:latest","prompt":"hello","max_tokens":10}'
#
验证Milvus:执行后续工具验证代码,或用milvus_cli连接测试
2.3 工具验证
# prepare.py
from
langchain_openai
import
ChatOpenAI
# 替换 VLLMOpenAI
from
langchain_milvus
import
Milvus
# 更新导入路径
from
langchain_huggingface
import
HuggingFaceEmbeddings
# 更新导入路径
from
pymilvus
import
connections, Collection, FieldSchema, CollectionSchema, DataType
# 1. 测试VLLM服务连接(使用ChatOpenAI代替VLLMOpenAI)
llm = ChatOpenAI(
openai_api_key=
"dummy_key"
,
# VLLM默认无需真实API_KEY,填任意值即可
openai_api_base=
"http://localhost:8000/v1"
,
# 对应上一步启动的VLLM服务地址
model_name=
"Qwen/Qwen3-8B-Instruct:latest"
,
# 与启动的模型一致(Qwen3 8B)
max_tokens=
2048
,
# 可根据需求调整最大生成token数
temperature=
0.7
)
# 测试连接(注意获取内容的方式)
response = llm.invoke(
"输出1+1=?"
)
print(response.content
if
hasattr(response,
'content'
)
else
response)
# 输出"2"则说明大模型连接正常
# 2. 测试Milvus向量库(生产常用配置,替换原Chroma)
# 2.1 连接Milvus服务(默认地址:localhost:19530,与Docker部署一致)
connections.connect(alias=
"default"
, host=
"localhost"
, port=
"19530"
)
# 2.2 定义Collection(Milvus核心概念,类似数据表,仅需创建一次)
fields = [
FieldSchema(name=
"id"
, dtype=DataType.INT64, is_primary=
True
, auto_id=
True
),
FieldSchema(name=
"embedding"
, dtype=DataType.FLOAT_VECTOR, dim=
384
),
# all-MiniLM-L6-v2维度为384
FieldSchema(name=
"text"
, dtype=DataType.VARCHAR, max_length=
2000
)
]
schema = CollectionSchema(fields=fields, description=
"context_engineering_memory"
)
collection_name =
"context_memory"
# 若Collection已存在则加载,不存在则创建
collection_names = [c.name
for
c
in
connections.list_collections()]
if
collection_name
in
collection_names:
collection = Collection(name=collection_name)
else
:
collection = Collection(name=collection_name, schema=schema)
# 创建索引(优化检索性能,生产必配)
index_params = {
"index_type"
:
"IVF_FLAT"
,
"params"
: {
"nlist"
:
128
},
"metric_type"
:
"L2"
}
collection.create_index(field_name=
"embedding"
, index_params=index_params)
# 2.3 测试向量库读写(添加文本并检索)
embeddings = HuggingFaceEmbeddings(model_name=
"all-MiniLM-L6-v2"
)
# 轻量高效,生产适配
vector_db = Milvus(
collection=collection,
embedding_function=embeddings,
text_field=
"text"
,
embedding_field=
"embedding"
,
primary_field=
"id"
)
vector_db.add_texts([
"test"
])
results = vector_db.similarity_search(
"test"
)
# 输出包含"test"的结果则说明向量库正常
print(results)
提示:若出现“VLLM连接失败”,检查VLLM服务是否处于运行状态;若出现“Milvus连接失败”,检查Docker容器是否启动(执行docker ps查看),或确认19530端口未被占用;向量库报错可删除对应Collection(执行collection.drop())重新执行。
03 场景化解决方案:对应痛点,直接落地
每个方案都遵循「痛点描述→适用场景→分步操作→效果验证」逻辑,你只需替换示例中的“自己的内容”(如文档路径、对话历史),即可快速解决问题。
方案1:解决“内容无法生成”(上下文超限)—— 卸载策略(外接硬盘)
1.1 痛点对应
传入10k+ Token的参考文档(如3篇技术论文、产品需求文档),让模型生成分析报告,模型提示“上下文长度不足”,直接拒绝生成。
1.2 核心思路
把长文档“存到本地硬盘”(外接存储),上下文只传「文档摘要+存储路径」(仅几百Token),模型需要时再调用工具读取文档片段,避免长文本占用窗口。
1.3 分步操作(复制代码,替换3处关键信息)
from langchain_community.document_loaders import TextLoader, DirectoryLoaderfrom langchain_openai import ChatOpenAIimport osimport json# 尝试不同的导入方式try: from langchain.prompts import PromptTemplateexcept ImportError: try: # 尝试其他可能的导入路径 from langchain.prompts.prompt import PromptTemplate except ImportError: # 如果都不行,自己定义一个简单的PromptTemplate classSimplePromptTemplate: def__init__(self, input_variables, template): self.input_variables = input_variables self.template = template defformat(self, **kwargs): result = self.template for key, value in kwargs.items(): result = result.replace(f"{{{key}}}", str(value)) return result PromptTemplate = SimplePromptTemplate# 初始化VLLM(生产级配置,与前置准备中的服务一致,Qwen3 8B)llm = ChatOpenAI( openai_api_key="dummy_key", openai_api_base="http://localhost:8000/v1", model_name="Qwen/Qwen3-8B-Instruct:latest", max_tokens=2048, temperature=0.3# 摘要生成建议低温度,保证准确性)# ---------------------- 第一步:替换为自己的文档路径 ----------------------DOC_PATH = "./my_docs/"# 你的长文档存放目录(支持.txt/.md等格式)STORE_PATH = "./context_store/"# 文档存储目录(自动创建)# ------------------------------------------------------------------------# 1. 加载长文档并保存到本地(外接硬盘)loader = DirectoryLoader(DOC_PATH, loader_cls=TextLoader)docs = loader.load() # 加载目录下所有文档# 创建存储目录os.makedirs(STORE_PATH, exist_ok=True)# 2. 保存文档并生成摘要(关键:上下文只传摘要,不传全文)doc_summaries = []doc_mappings = {} # 存储文档ID到文件路径的映射for i, doc in enumerate(docs): # 保存文档到本地文件 doc_id = f"doc_{i}" file_path = os.path.join(STORE_PATH, f"{doc_id}.txt") # 保存原始文档内容 with open(file_path, 'w', encoding='utf-8') as f: f.write(doc.page_content) # 存储映射关系 doc_mappings[doc_id] = { 'path': file_path, 'metadata': doc.metadata } # 生成单篇文档摘要 content = doc.page_content[:3000] # 截取前3000字符进行摘要 # 创建提示模板 summary_prompt = PromptTemplate( input_variables=["doc_content"], template="请用3句话总结以下文档的核心内容:{doc_content}" ) # 直接使用LLM生成摘要 formatted_prompt = summary_prompt.format(doc_content=content) doc_summary = llm.invoke(formatted_prompt) doc_summaries.append(f"{doc_id}:{doc_summary}")# 3. 保存映射信息with open(os.path.join(STORE_PATH, 'mapping.json'), 'w', encoding='utf-8') as f: json.dump(doc_mappings, f, ensure_ascii=False, indent=2)# 4. 构造精简上下文context = f"""参考文档信息(已保存至 {STORE_PATH}):{chr(10).join(doc_summaries)}若需要读取某篇文档全文,可告知文档ID(如doc_0),我会从本地文件系统加载。请基于以上文档摘要,生成一份AI技术分析报告,包含核心观点、应用场景、落地建议3部分。"""# 5. 调用模型生成内容result = llm.invoke(context)print("生成的报告:", result)print(f"\n文档已保存到: {STORE_PATH}")print(f"文档映射信息: {STORE_PATH}mapping.json")
1.4 效果验证(3个判断标准)
-
模型不再提示“上下文超限”,能完整生成报告(解决“无法生成”问题);
-
报告内容与3篇长文档核心一致(如提及doc0的“上下文工程组件”、doc1的“RAG优化”);
-
单轮上下文Token消耗从15k+降至1.2k+(可通过LangSmith监控:pip install langsmith,配置API_KEY后启用)。
方案2:解决“输出不完整”(内容被截断)—— 压缩策略(可逆精简)
2.1 痛点对应
多轮打磨产品需求文档(累计10轮对话,包含需求描述、修改意见、格式要求),第11轮让模型生成完整需求报告,结果只写了2章就中断,核心功能模块未提及。
2.2 核心思路
先存档完整对话历史(可逆,方便回溯),再用“递归摘要”压缩历史内容(仅保留关键需求),释放上下文窗口空间,让模型有足够Token生成完整内容。
2.3 分步操作(复制代码,替换对话历史)
# ctx_eng_history.pyfrom langchain_text_splitters import RecursiveCharacterTextSplitterfrom langchain_openai import ChatOpenAIfrom langchain_core.prompts import PromptTemplate# 初始化VLLM(生产级配置,与前置准备中的服务一致,Qwen3 8B)llm = ChatOpenAI( openai_api_key="dummy_key", openai_api_base="http://localhost:8000/v1", model_name="Qwen/Qwen3-8B-Instruct:latest", max_tokens=4096, temperature=0.3)# ---------------------- 第一步:替换为自己的对话历史 ----------------------# 你的10轮对话历史(示例,实际替换为真实内容)full_chat_history = """轮1:用户:生成一份AI项目需求文档,目标受众是后端开发者,包含功能模块、技术栈、交付时间。轮2:模型:需求文档大纲...(略)轮3:用户:补充“Docker部署”模块,技术栈优先选开源工具。轮4:模型:已补充...(略)轮5:用户:增加安全认证模块,使用JWT。轮6:模型:已添加安全认证模块...(略)轮7:用户:交付时间需要明确到周。轮8:模型:已更新时间规划...(略)轮9:用户:验收标准需要量化指标。轮10:模型:已补充量化指标...(略)"""# ------------------------------------------------------------------------# 1. 存档完整对话历史(可逆,避免摘要丢失信息)with open("./full_chat_history.txt", "w", encoding="utf-8") as f: f.write(full_chat_history)print("完整对话历史已存档至:./full_chat_history.txt")# 2. 递归摘要压缩(保留100%关键信息,压缩至800 Token内)text_splitter = RecursiveCharacterTextSplitter( chunk_size=500, chunk_overlap=50)# 拆分对话历史为多个片段,便于递归摘要docs = text_splitter.create_documents([full_chat_history])# 自定义摘要函数(替代load_summarize_chain)defcustom_recursive_summarize(docs, llm): """递归摘要函数,模拟recursive_refine行为""" ifnot docs: return"无内容可摘要" # 第一步:对每个文档片段进行摘要 chunk_summaries = [] summary_prompt = PromptTemplate( input_variables=["text"], template="请总结以下文本的关键要点:{text}" ) for i, doc in enumerate(docs[:5]): # 限制处理前5个片段避免过长 formatted_prompt = summary_prompt.format(text=doc.page_content) response = llm.invoke(formatted_prompt) chunk_summary = response.content if hasattr(response, 'content') else response chunk_summaries.append(f"片段{i+1}要点:{chunk_summary}") # 第二步:合并所有片段摘要并生成最终摘要 combined_text = "\n".join(chunk_summaries) final_prompt = PromptTemplate( input_variables=["text"], template="请将以下要点整合成一段简洁连贯的核心需求描述(包含受众、功能、技术栈、格式要求):{text}" ) final_formatted = final_prompt.format(text=combined_text) final_response = llm.invoke(final_formatted) return final_response.content if hasattr(final_response, 'content') else final_response# 执行压缩,得到关键需求摘要compressed_history = custom_recursive_summarize(docs, llm)print("生成的摘要:", compressed_history)# 3. 构造精简上下文(仅传压缩后的关键需求)context = f"""以下是前10轮对话的核心需求摘要:{compressed_history}请基于以上需求,生成完整的AI项目需求文档,要求:1. 结构完整:包含项目背景、功能模块、技术栈选型、交付计划、验收标准;2. 内容详细:每个功能模块需说明核心逻辑、输入输出、依赖组件;3. 格式规范:使用Markdown分级标题,关键指标用加粗标注。"""# 4. 调用模型生成完整文档(添加错误处理)try: complete_docs = llm.invoke(context) result_content = complete_docs.content if hasattr(complete_docs, 'content') else complete_docs print("完整需求文档:", result_content) # 同时保存到文件 with open("./generated_requirements.md", "w", encoding="utf-8") as f: f.write(result_content) print("\n文档已保存至:./generated_requirements.md") except Exception as e: print(f"生成文档时出错: {e}") print("请检查vLLM服务是否正常运行")
2.4 效果验证(3个判断标准)
-
模型能生成完整的5部分需求文档,无内容中断(解决“输出不完整”问题);
-
文档包含所有早期关键需求(如“面向后端开发者”“Docker部署模块”“开源技术栈”);
-
第11轮上下文Token消耗从8.2k降至1.1k,生成延迟从8s+降至2s内。
方案3:解决“记忆丢失/混淆”(偏离需求)—— 检索策略(按需召回)
3.1 痛点对应
先和模型确认“生成的代码需兼容Python 3.7+、使用Flask框架、包含权限校验”,之后间隔5轮无关对话(如询问AI行业趋势、工具选型建议),再让模型续写代码,结果代码用了Django框架,且缺失权限校验模块。
3.2 核心思路
把关键需求(如技术栈、格式要求)存入向量库,每轮生成内容前,通过关键词检索召回相关需求,确保模型“记起”核心约束,避免被无关对话干扰。
3.3 分步操作(复制代码,替换关键需求)
from langchain_community.vectorstores import Milvusfrom langchain_community.embeddings import HuggingFaceEmbeddingsfrom langchain_openai import ChatOpenAIfrom pymilvus import connections, Collection# 初始化VLLM(生产级配置,与前置准备中的服务一致,Qwen3 8B)llm = ChatOpenAI( openai_api_key="dummy_key", openai_api_base="http://localhost:8000/v1", model_name="Qwen/Qwen3-8B-Instruct:latest", max_tokens=2048, temperature=0.2# 代码生成建议低温度,保证语法正确性)# 初始化生产级嵌入模型(轻量高效,适合生产环境部署)embeddings = HuggingFaceEmbeddings(model_name="all-MiniLM-L6-v2")# ---------------------- 第一步:替换为自己的关键需求 ----------------------# 你的核心需求(示例,实际替换为真实约束条件)key_requirements = [ "代码兼容Python 3.7+版本", "Web框架必须使用Flask(不使用Django)", "接口需包含JWT权限校验模块", "返回格式为JSON,包含code/message/data字段", "需添加异常捕获(处理参数错误、权限不足场景)"]# 无关对话后的当前任务current_task = "请续写用户管理模块的核心接口代码,包含用户注册、登录、查询3个接口"# ------------------------------------------------------------------------# 1. 连接Milvus向量库(生产级配置,与前置准备一致)connections.connect(alias="default", host="localhost", port="19530")collection_name = "context_memory"# 与工具验证中的Collection名称一致collection = Collection(name=collection_name)collection.load() # 加载Collection(检索前必做步骤)# 2. 初始化Milvus向量库实例vector_db = Milvus( collection=collection, embedding_function=embeddings, text_field="text", embedding_field="embedding", primary_field="id")# 3. 把关键需求存入向量库(仅需执行一次,后续可注释)vector_db.add_texts(key_requirements)print("关键需求已存入Milvus向量库:collection=context_memory")# 4. 检索相关需求(按需召回,避免无关信息干扰)# 检索关键词:结合当前任务(代码续写)+ 核心约束(技术栈、格式)query = "Python代码 技术栈 Flask JWT权限校验 JSON返回 异常捕获"# 召回最相关的3条需求(k值可调整,避免召回过多)relevant_memories = vector_db.similarity_search(query, k=3)# 提取检索到的需求文本memory_text = "\n".join([f"- {doc.page_content}"for doc in relevant_memories])# 5. 构造上下文(检索到的需求 + 当前任务)context = f"""需遵守的核心约束:{memory_text}当前任务:{current_task}请严格按照约束条件续写代码,代码需包含注释,说明核心逻辑。"""# 6. 调用模型生成代码(VLLM生成代码效率更高,精准召回需求,不会丢失记忆)code_result = llm.invoke(context)print("续写的代码:", code_result)# 可选:检索完成后卸载Collection(释放资源,生产优化)collection.release()
3.4 效果验证(3个判断标准)
-
生成的代码使用Flask框架(未用Django),兼容Python 3.7+(解决“记忆丢失”问题);
-
包含JWT权限校验模块、JSON标准化返回、异常捕获逻辑(所有关键约束均满足);
-
即使间隔10轮无关对话,重复步骤3-5,仍能精准召回核心需求(稳定性验证)。
04 进阶技巧:30分钟落地完整上下文管理系统
若你需要处理更复杂的场景(如多任务并行、长周期项目),可组合以上3种策略,搭建基础版上下文管理系统,步骤如下:
- 初始化3个核心组件:LocalFileStore(存储长文档)、Milvus(存储关键需求,生产级)、LangSmith(监控Token消耗);
- 设定触发规则:
-
当文档长度>5k Token:自动执行“卸载策略”;
-
当对话轮数>8轮:自动执行“压缩策略”并存档历史;
-
当包含关键需求(如技术栈、格式):自动存入Milvus向量库,生成内容前执行“检索策略”;
- 封装工具函数:把“文档加载/存储”“摘要压缩”“Milvus向量检索”封装成通用函数,后续直接调用。
05 避坑指南:技术人员最容易踩的4个坑
- 盲目扩容模型窗口(如从8k升到32k)—— 成本翻倍,且仍会出现上下文问题,优先用本文策略;
- 生成摘要时丢失关键信息—— 避免用“简单摘要”,优先用LangChain的recursive_refine模式,逐块优化;
- 向量检索召回过多内容—— 用Milvus时建议k值设为2-3(仅召回最相关需求),同时可通过调整索引参数(如nlist)优化检索精度,避免冗余信息占用窗口;
- 不存档完整历史—— 所有压缩/卸载前的原始内容必须存档,避免后续需要回溯时无法恢复。
06 总结:这篇指南能给你带来的核心价值
- 零成本解决3类核心痛点:无需付费扩容、无需更换大模型,用开源工具即可搞定“无法生成、输出不完整、记忆丢失”;
- 拿来就用的实操方案:相关代码可直接复制,替换“自己的内容”,可落地;
- 可复用的技术框架:掌握“卸载+压缩+检索”组合策略后,可迁移到任何大模型项目(如AI客服、代码助手、文档生成)。
普通人如何抓住AI大模型的风口?
领取方式在文末
为什么要学习大模型?
目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。
目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过 30%。

随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:

人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!
最后
只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!
在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

大模型全套学习资料展示
自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。

希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!
01 教学内容

-
从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!
-
大量真实项目案例: 带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
02适学人群
应届毕业生: 无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型: 非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能突破瓶颈: 传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。

vx扫描下方二维码即可

本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!
03 入门到进阶学习路线图
大模型学习路线图,整体分为5个大的阶段:

04 视频和书籍PDF合集

从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)

05 行业报告+白皮书合集
收集70+报告与白皮书,了解行业最新动态!

06 90+份面试题/经验
AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)

07 deepseek部署包+技巧大全

由于篇幅有限
只展示部分资料
并且还在持续更新中…
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

1615

被折叠的 条评论
为什么被折叠?



