-Love-Coding-
ACL/NAACL/EMNLP/COLING审稿人,github.com/guotong1988
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
huggingface transformers,避免生成重复内容
【代码】huggingface transformers,避免生成重复内容。原创 2025-06-18 15:34:24 · 36 阅读 · 0 评论 -
torch 生成式模型推理加速 之torch_dtype=torch.float16,
【代码】torch 生成式模型推理加速 之torch_dtype=torch.float16,原创 2025-06-09 09:42:17 · 76 阅读 · 0 评论 -
python调用Qwen3,输出<think></think>
【代码】python调用Qwen3,输出<think>原创 2025-06-04 14:52:17 · 181 阅读 · 0 评论 -
BERT推理加速
ALBERT推理速度是BERT的3倍左右,原创 2025-06-02 22:44:48 · 54 阅读 · 0 评论 -
torch 生成式模型推理加速 之early_stopping=True
就是比如生成128长度,发现生成到40,后面就都是。了,就不继续decode了。原创 2025-05-28 09:45:11 · 55 阅读 · 0 评论 -
torch 生成式模型推理加速 之padding=True
【代码】torch 生成式模型推理加速 之padding=True。原创 2025-05-27 16:57:29 · 63 阅读 · 0 评论 -
huggingface padding=True 训练阶段报错:expected sequence of length 24 at dim 1 (got 20)
是seq2seq任务报错的,的tokenize还是。原创 2025-05-27 16:38:28 · 72 阅读 · 0 评论 -
T5 预训练模型
如果只有30-40w数据,训练出来有很多语句不通的case,从零训练一个T5-Base需要200-300W+数据,可以用预训练模型解决语句不通的问题。原创 2025-05-22 15:03:26 · 81 阅读 · 0 评论 -
huggingface transformers 加载预训练好的模型时,只加载部分层数
【代码】huggingface transformers 加载预训练好的模型时,只加载部分层数。原创 2025-05-22 11:59:22 · 56 阅读 · 0 评论 -
【报错】operator torchvision::nms does not exist
torch和torchvision版本不匹配。原创 2025-03-23 18:15:59 · 366 阅读 · 0 评论 -
pytorch,对不同样本进行Loss上的加权
【代码】pytorch对不同样本进行Loss上的加权。原创 2025-03-21 10:07:43 · 74 阅读 · 0 评论 -
Mac报错 /bin/sh: wget: command not found
具体在clone https://huggingface.co/ 的资源时候报的错。原创 2025-03-11 10:33:03 · 251 阅读 · 0 评论 -
调用detr-resnet-50进行目标检测
【代码】调用detr-resnet-50进行目标检测。原创 2024-10-29 14:33:21 · 332 阅读 · 0 评论 -
huggingface transformers 网络问题
建议还是找一个网络好的机器,跑通CPU版本,不建议自己去找到所需文件下载的本地。里有相关下载好的文件,原创 2024-10-28 10:53:42 · 68 阅读 · 0 评论 -
报错,operator torchvision::nms does not exist
torch和torchvision都要安装gpu版本,或者两个都是cpu版本,原创 2024-10-25 09:57:10 · 2309 阅读 · 0 评论 -
安装指定cuda版本的torch和torchvision
建议去下面链接下载后本地安装。原创 2024-10-25 09:47:12 · 921 阅读 · 0 评论 -
huggingface transformers 报错 ‘list‘ object has no attribute ‘size‘
已经是python list类型,原创 2024-09-06 16:21:57 · 183 阅读 · 0 评论 -
使用 torch.utils.data 的 DataLoader
【代码】使用 torch.utils.data 的 DataLoader。原创 2024-09-05 23:16:43 · 147 阅读 · 0 评论 -
PyTorch 使用多GPU(数据并行)
【代码】PyTorch 使用多GPU。原创 2024-09-03 10:12:23 · 257 阅读 · 0 评论 -
PyTorch改为默认使用GPU
PyTorch默认用CPU,改默认用GPU,原创 2024-09-01 19:51:05 · 1103 阅读 · 0 评论 -
安装cuda11.8版本的torch
在这里可以下载cuda11.8版本的不同版本的torch都有。原创 2024-06-22 22:10:15 · 2635 阅读 · 0 评论 -
安装torch时指定cuda版本
举例:conda install pytorch0.18.0 torchaudio==2.3.0 pytorch-cuda=11.8 -c pytorch -c nvidiaconda install pytorch0.18.0 torchaudio==2.3.0 pytorch-cuda=12.1 -c pytorch -c nvidiaconda install pytorch0.18.0 torchaudio==2.3.0 cpuonly -c pytorch。原创 2024-06-21 10:43:52 · 3261 阅读 · 0 评论 -
python和命令行查看cuda版本
命令行,有哪些cuda。原创 2024-06-18 10:19:06 · 1403 阅读 · 1 评论 -
pytorch 检查GPU可用
【代码】pytorch 检查GPU可用。原创 2023-11-28 11:07:43 · 239 阅读 · 0 评论 -
huggingface/transformers 用Trainer 和 不用Trainer
【代码】huggingface/transformers 用Trainer 和 不用Trainer。原创 2023-10-19 15:53:07 · 298 阅读 · 0 评论 -
huggingface/transformers 确保模型利用GPU
【代码】huggingface/transformers 确保模型利用GPU。原创 2023-09-05 16:49:58 · 1334 阅读 · 0 评论 -
huggingface/transformers 预训练自己的数据
huggingface/transformers 会自动加载 能对应上的 参数。原创 2023-08-31 17:12:06 · 312 阅读 · 0 评论 -
AutoModelForSequenceClassification 得到embedding
【代码】AutoModelForSequenceClassification 得到embedding。原创 2023-08-25 20:45:16 · 300 阅读 · 0 评论 -
不预训练的话,用huggingface/transformers比google-research/bert的效果好2-4%
用于文本分类,正确率高2-4%原创 2023-08-01 11:00:44 · 178 阅读 · 0 评论 -
报错:Module ‘XXX‘ doesn‘t exist on the Hugging Face Hub
【代码】报错:Module ‘accuracy‘ doesn‘t exist on the Hugging Face Hub。原创 2023-08-01 10:04:40 · 4628 阅读 · 6 评论 -
huggingface/transformers tokenizer报错 list index out of range
【代码】huggingface/transformers tokenizer报错 list index out of range。原创 2023-06-28 10:18:07 · 831 阅读 · 0 评论 -
huggingface/transformers TFAutoModelForSeq2SeqLM 输出 embedding
【代码】huggingface/transformers TFAutoModelForSeq2SeqLM 输出 embedding。原创 2023-06-27 14:51:44 · 423 阅读 · 0 评论 -
LOMO: LOw-Memory Optimization 阅读笔记
文章贡献:减少对GPU内存的占用,从而能让GPU容纳更大的模型参数。原创 2023-06-26 10:46:08 · 199 阅读 · 0 评论 -
ImportError: cannot import name ‘skip_init‘ from ‘torch.nn.utils‘
torch==1.10.0 版本可以。问题所在:pytorch版本不对,原创 2023-06-19 12:00:04 · 2066 阅读 · 0 评论 -
symbol cudaGraphInstantiateWithFlags, version libcudart.so.11.0 not defined
问题所在:pytorch和cuda版本不匹配。原创 2023-06-19 11:47:27 · 1683 阅读 · 3 评论 -
deepspeed ZeRO-Inference 可在1-GPU上推理~100B的大模型
https://www.deepspeed.ai/2022/09/09/zero-inference.html原理:原创 2023-06-18 10:22:23 · 483 阅读 · 0 评论 -
huggingface/transformers,tokenizer出的attention_mask的坑
则tokenizer返回的。则tokenizer返回的。原创 2023-06-15 11:53:35 · 1225 阅读 · 0 评论 -
TypeError: TextEncodeInput must be Union[TextInputSequence, Tuple[InputSequence, InputSequence]]
huggingface/transformers 的 tokenizer 报的错,报错原因,数据里有None值。原创 2023-06-15 09:06:21 · 854 阅读 · 0 评论 -
把huggingface/transformers的模型文件下载到本地
python代码 自动下载模型实现和参数。如果你的网络环境较差,下载模型参数可能会花费较长时间甚至失败。此时可以先将模型下载到本地,然后从本地加载。参考 https://github.com/THUDM/ChatGLM-6B 的README。以chatglm-6b为例,然后运行。先安装Git LFS。原创 2023-06-14 15:52:09 · 3915 阅读 · 0 评论 -
contrastive loss 的高级代码实现 (pytorch)
LARGE_NUM = 1e9 def _contrastive_loss_forward(self, hidden1: torch.Tensor, hidden2: torch.Tensor, hidden_norm: bool = True, ...原创 2021-08-17 10:55:46 · 4721 阅读 · 0 评论