
深度学习
文章平均质量分 65
世润
已取得数据治理工程师,具备大数据,人工智能,风控模型,java,数据分析,javaweb,android,表格等多项技能,一起努力,共同成长。
展开
-
GPT发展途径
模型规模:每一代模型参数数量显著增加,提升了模型的生成能力和任务适应性。训练数据:数据规模和多样性不断扩大,提升了模型的泛化能力。训练目标:从单一的语言建模到多任务、多模态学习,提升了模型的灵活性和适用性。技术创新:包括Transformer架构的应用、大规模预训练、少样本学习、多模态支持等,推动了模型性能的持续提升。GPT系列模型的每次迭代都在前一代的基础上进行改进,通过增加模型参数、扩展训练数据集和优化训练方法,逐步提升模型的生成能力和任务表现。原创 2024-06-02 23:40:27 · 593 阅读 · 0 评论 -
Instruction-Tuning&promote tuning原理,对比区别
原理。原创 2024-06-02 23:30:05 · 837 阅读 · 0 评论 -
Transformer
Transformer是一种用于处理序列数据的神经网络架构,最初由Vaswani等人在2017年提出,主要应用于自然语言处理(NLP)任务,如机器翻译、文本生成和文本分类。Transformer通过引入注意力机制(Attention Mechanism),解决了传统序列模型(如RNN和LSTM)在长序列处理中的一些局限性,如梯度消失和并行计算困难。原创 2024-05-19 18:00:36 · 405 阅读 · 0 评论 -
深度学习基础
深度学习的概念源于人工神经网络的研究,是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数 据,例如图像,声音和文本。原创 2024-04-18 22:33:11 · 371 阅读 · 1 评论