- 博客(24)
- 收藏
- 关注
原创 jieba报错Import error, cannot find paddle.fluid and jieba.lac_small.predict module. Now, back to jieba
jieba.enable_paddle()
2025-01-10 11:33:38
361
原创 docker创建容器报错Error response from daemon: could not select device driver ““ with capabilities: [[gpu]]
docker容器创建是GPU报错Error response from daemon: could not select device driver "" with capabilities: [[gpu]]
2024-09-03 23:00:18
5166
原创 RTX 4000 series doesn‘t support faster communication broadband via P2P or IB.分布式报错
NotImplementedError: Using RTX 4000 series doesn't support faster communication broadband via P2P or IB. Please set `NCCL_P2P_DISABLE="1"` and `NCCL_IB_DISABLE="1"
2024-09-03 20:06:19
2343
原创 OSError: Error no file named pytorch_model.bin, tf_model.h5, model.ckpt.index or flax
SafeTensors 是一种专门为深度学习模型设计的安全、高效的格式,它不依赖于 pickle,相比保存为.pth , .bin而是采用二进制格式进行存储。但我训练的模型保存为xx.safetensors,在huggingface的AutoModelForCausalLM.from_pretrained()加载模型时,会报错。2、如果没有则将模型参数名称改为model.safetensors或者pytorch_model.bin放到文件夹下加载即可。
2024-08-23 17:09:19
3200
原创 undefined symbol: __nvJitLinkAddData_12_1, version libnvJitLink.so.x报错缺失
错误信息 undefined symbol: __nvJitLinkAddData_12_1, version libnvJitLink.so.12 表明您的系统中缺少一个名为 __nvJitLinkAddData_12_1 的符号定义,这个符号应该在 libnvJitLink.so.12 这个动态链接库中定义。比如我程序运行,和cuda、torch相关的非常容易碰到问题。可以看到我的环境中的动态链接库所在位置为换线部分。2、LD_LIBRARY_PATH 环境变量。这里切换为你的cuda路径。
2024-05-07 16:38:50
4399
8
原创 attention_mask,pad_token_id报错
The attention mask and the pad token id were not set. As a consequence, you may observe unexpected behavior. Please pass your input's `attention_mask` to obtain reliable results.Setting `pad_token_id` to `eos_token_id`:151643 for open-end generation.
2024-03-01 10:01:50
9973
7
原创 vscode如何不覆盖前一个窗口
网上讲的设置enablePreview取消勾选这些方法我试过都无效,后来发现是再setting.json中关于"workbench.editor.showTabs"的设置不对。1、如果知道地址打开C:/Users/Administrator/AppData/Roaming/Code/User/settings.json,3、找到“workbench.editor.showTabs”本来是single,无论设置啥别的都会覆盖窗口,改为multiple就解决了!
2023-12-21 11:58:43
838
翻译 LM提示推理Prompting Reasoning--研究综述
推理作为复杂问题解决的基本能力,可以为各种现实世界的应用程序提供后端支持,如医疗诊断、谈判等。本文对语言模型提示推理的前沿研究进行了全面的综述。我们通过比较和总结介绍研究作品,并提供系统的资源来帮助初学者。我们还讨论了出现这种推理能力的潜在原因,并强调了未来的研究方向。如上,语言模型的prompt可以是上下文 或 单纯提示让我们一步一步思考 或 知识库!都可以增强模型的推理能力。
2023-08-17 14:17:42
222
1
翻译 LTM提示使大语言模型中的复杂推理成为可能
为LLM提出了一种新颖的提示策略,即最少到最多提示( least-to-most prompting)。这个策略的关键思想是把一个复杂的问题分解成一系列更简单的子问题,然后依次解决它们。以前解决的子问题的答案有助于解决每个子问题。我们在与符号操作、组合泛化和数学推理相关的任务上的实验结果表明,最少到最多的提示能够泛化到比提示中看到的更难的问题。
2023-04-26 17:02:20
2265
1
翻译 Inferring Implicit Relations in Complex Questions with Language Models(用LM推断复杂问题中的隐含关系)
隐含推理问题的挑战并不仅仅源于需要计划一个推理策略,而是需要在进行推理的同时检索和推理相关信息
2023-04-13 18:54:21
458
1
翻译 Binding Language Models in Symbolic Languages(GPT-3无需训练的神经符号框架)
调用GPT3的API,无需训练的神经符号框架,有效实现特定场景答案生成。
2023-03-30 17:20:26
729
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人