00.LLM
文章平均质量分 50
apche CN
Archit
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
windows编译llama.cpp GPU版本
llama.cpp,, windows编译llama.cpp , 配置复杂,困难重重,每一步都是坑。原创 2024-12-29 21:17:36 · 2035 阅读 · 0 评论 -
InstructGPT
InstructGPT 论文译读。原创 2023-08-21 16:15:47 · 192 阅读 · 0 评论 -
Subword算法
Subword算法------原创 2023-08-21 15:21:17 · 521 阅读 · 0 评论 -
Instruction finetuning
--中译讨论 ------原创 2023-07-13 17:13:14 · 306 阅读 · 0 评论 -
COT ,Emergent Abilities
----原创 2023-07-10 17:50:16 · 180 阅读 · 0 评论 -
LM详解 GPT3,GPT2, GPT1 论文译读
LM详解 GPT系原创 2021-03-12 22:28:42 · 6116 阅读 · 1 评论 -
LM详解 Bert系 ,DistilBERT,论文译读
Bert3 Bert---3.0 输入/输出表示形式为了使BERT处理各种下游任务,我们的输入表示形式可以在一个分词序列中明确表示单个句子和一对句子(例如 <Question,Answer>)。在整个工作中,“句子”可以是任意跨度的连续文本,而不是实际的语言句子。“序列”指BERT的输入分词序列,它可以是一个句子或两个句子包装在一起。我们使用WordPiece嵌入(Wu et al。,2016),含有30,000个分词词汇表。每个序列的第一个符号总是特殊分...原创 2021-03-12 16:54:25 · 1876 阅读 · 0 评论 -
Transformer: Attention Is All You Need,NIPS 2017
The Illustrated Transformerhttp://jalammar.github.io/illustrated-transformer/The Illustrated Transformer【译】https://blog.youkuaiyun.com/yujianmin1990/article/details/85221271https://zhuanlan.zhihu.com/p/54356280原创 2021-01-26 22:46:11 · 679 阅读 · 0 评论 -
Learning to Summarize from Human Feedback
Learning to Summarize from Human Feedback_triplemeng的博客-优快云博客原创 2023-05-02 12:36:12 · 151 阅读 · 0 评论 -
CoT开山之作:Chain-of-Thought Prompting
CoT开山之作:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 论文解读 - 知乎原创 2023-05-02 12:05:16 · 1175 阅读 · 0 评论 -
GPT-3 中文翻译
GPT-3 中文翻译,论文阅读:Language Models are Few-Shot Learners(OpenAI GPT3 , 22/7/2020)https://zhuanlan.zhihu.com/p/527825405https://blog.youkuaiyun.com/qq_41185868/article/details/107677244原创 2023-06-22 00:54:27 · 284 阅读 · 0 评论
分享