- 博客(28)
- 收藏
- 关注
原创 Datawhale AI 夏令营+“AI+逻辑推理”方向Task01
本比赛旨在测试参与者的逻辑推理和问题解决能力。参与者将面对一系列复杂的逻辑谜题,涵盖多个领域的推理挑战。比赛内容涉及以下几个方面的背景知识:逻辑推理概念[1]:理解基本的逻辑推理概念,包括命题逻辑和谓词逻辑。熟悉如何从一组假设中得出结论,并能够识别和运用逻辑关系和规则。
2024-07-28 19:50:48
352
原创 Task02:文生图片技术路径、原理与SD实战
3. Tokenizer中有一些特殊Token,比如开始和结束标记,你觉得它们的作用是什么?12. 请你将《LLM部分》中的一些设计(如RMSNorm)加入到《Self-Attention部分》的模型设计中,看看能否提升效果?5. RMSNorm的作用是什么,和LayerNorm有什么不同?5. Multi-Head Self-Attention,Multi越多越好吗,为什么?你知道几种Tokenize方式,它们有什么区别?8. Self-Attention的qkv初始化时,bias怎么设置,为什么?
2024-03-09 21:34:59
1102
原创 Task01:Sora技术路径详解
Sora技术原理详解:ViT,Spacetime latent patches,扩散模型,Diffusion Transformer,DiT,
2024-03-01 00:09:43
683
1
原创 第 2 节 轻松玩转书生·浦语大模型趣味 Demo
书生·浦语大模型趣味 Demo:大模型,Agent ,InternLM,hugging face,ModelScopeOpenXLab
2024-02-13 00:40:18
599
1
原创 第 1 节 书生·浦语大模型全链路开源体系
书生·浦语大模型全链路开源体系:数据,预训练,微调,部署,评测,应用;书生·万卷,InternLM,XTuner,LMdeploy,OpenCompass,Lagent AgentLego
2024-02-08 23:13:37
529
原创 Task08:大模型的危害性上&下
大模型的危害性:量化性能差异,社会偏⻅,有毒性,虚假信息;解决措施:测量与决策,注意事项与⽆提示实验,提示实验,减轻毒性,内容审查。
2024-01-28 21:09:10
682
原创 Task06:大模型之Adaptation
大模型之Adaptation,Probing,Fine-tuning,Lightweight Fine-tuning,Prompt Tuning,Prefix Tuning,Adapter Tuning。
2024-01-25 22:39:37
560
原创 Task05:模型训练
模型训练,Decoder-only ,Encoder-only,Encoder-decoder,BART,T5,优化算法,随机梯度下降(SGD),Adam ,AdaFactor,混合精度训练,学习率,初始化
2024-01-23 23:53:07
776
1
原创 Task02:大模型的能力
大模型的能力,⾃然语⾔处理(NLP)基准测试,⼀些特殊的⼀次性演示,Language Modeling,Question answering,Translation,Arithmetic,News article generation,Novel tasksOther tasks
2024-01-16 21:50:52
579
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人