
暨大-博士-作业
文章平均质量分 89
CSPhD-winston-杨帆
合作:winstonyf@qq.com 暨大博士生 川师大研究生 前成都东软教师
展开
-
大模型-鲁棒性总结-2024-7-28
大语言模型(LLMs)的鲁棒性(Robustness of Large Models)指的是大规模机器学习模型在面对输入数据的变化、噪声或攻击时,仍然能够保持其性能和稳定性的能力。这在实际应用中非常重要,因为真实世界的数据往往是嘈杂的、不可预测的,并且有时可能包含恶意攻击。以下是一些关键点来解释LLMs的鲁棒性:对噪声的鲁棒性:LLMs需要能够处理数据中的噪声,如输入数据中的随机误差或异常值。例如,在图像分类任务中,图像可能会包含噪声或失真,LLMs应当能够正确分类这些图像。原创 2024-07-28 15:34:27 · 2561 阅读 · 0 评论 -
Week 8-杨帆-学习总结
BERT(Bidirectional Encoder Representations from Transformers)是一种基于Transformers的双向编码器表示,它通过预训练任务学习到的深层双向表示,极大地提升了自然语言处理任务的性能。BERT(Bidirectional Encoder Representations from Transformers)是一种预训练语言表示模型,通过在大量文本上预训练得到的语言模型,可以在多种下游任务中获得良好的性能。原创 2024-07-27 13:34:38 · 551 阅读 · 0 评论 -
大模型-RAG相关资料收集
最近开源的AI知识库GraphRAG到底是什么?和普通的RAG有什么区别?动手学RAG:Part1 什么是RAG?原创 2024-07-25 20:55:20 · 717 阅读 · 0 评论 -
大模型-鲁棒性总结-2024-7-21
大语言模型(LLMs)的鲁棒性(Robustness of Large Models)指的是大规模机器学习模型在面对输入数据的变化、噪声或攻击时,仍然能够保持其性能和稳定性的能力。这在实际应用中非常重要,因为真实世界的数据往往是嘈杂的、不可预测的,并且有时可能包含恶意攻击。以下是一些关键点来解释LLMs的鲁棒性:对噪声的鲁棒性:LLMs需要能够处理数据中的噪声,如输入数据中的随机误差或异常值。例如,在图像分类任务中,图像可能会包含噪声或失真,LLMs应当能够正确分类这些图像。原创 2024-07-25 19:47:17 · 1304 阅读 · 0 评论 -
教育+大模型-可解释-2024-7-15
随着人工智能技术的飞速发展,大型语言模型(LLMs)在教育领域的应用日益广泛,展现出改善教学方法和提供个性化学习体验的巨大潜力。这些模型以其在自然语言处理方面的卓越能力,为教育带来了革命性的变革。然而,LLMs的复杂性和不透明性,特别是它们的内部机制仍然不清晰,引发了对其可解释性的广泛关注。这种缺乏透明度不仅为下游应用带来了风险,而且限制了它们的广泛应用,需要通过可解释性来确保应用安全、克服性能限制,并控制社会影响。原创 2024-07-25 19:45:14 · 646 阅读 · 0 评论 -
动手学深度学习-笔记-跟李沐学AI
CSV全称:Comma-Separated Values。·# 62 序列到序列学习(seq2seq)原创 2023-12-02 12:35:17 · 1401 阅读 · 0 评论 -
来自Transformers的双向编码器表示(BERT) 通俗解释
BERT模型结合了ELMo和GPT的优点,既能够进行上下文敏感的双向编码,又不需要为每个任务设计特定的模型架构。在应用于具体任务时,BERT模型只需要做少量的架构调整,并且可以微调所有的参数,以适应不同的任务需求。通过多种掩蔽策略,模型在训练中引入了一定的噪声,增强了模型的泛化能力,使其在处理实际任务时更加稳健。这些模型会根据词的上下文来调整词的表示,使得相同的词在不同句子中的表示可以有所不同。这些庞大的语料库为BERT模型提供了丰富的训练数据,使得模型在处理各种自然语言处理任务时具备强大的理解能力。原创 2024-07-18 21:37:31 · 1293 阅读 · 0 评论 -
Week 3-杨帆-学习总结
自适应测试结合了认知诊断模型和智能选题策略,通过多模态数据分析和机器学习方法,显著提升了教育测试的效率和准确性。未来的研究将继续探索更先进的模型和算法,以实现更加精准和个性化的教育评估。原创 2024-06-30 16:28:42 · 722 阅读 · 0 评论 -
Week 4-杨帆-学习总结
角色扮演代理(RPAs)是基于大型语言模型(LLM)的对话代理,可以模拟虚构人物或名人的个性。这些RPAs的关键能力包括指令遵循、上下文学习、检索以及展现人类般的行为。原创 2024-06-30 16:27:11 · 864 阅读 · 0 评论 -
Week 7-杨帆-学习总结
门控循环单元(GRU)是一种改进的循环神经网络模型,它通过引入门控机制来解决传统RNN在处理长序列时的梯度消失或爆炸问题。GRU的核心思想是利用重置门和更新门来控制信息的流动,从而更好地捕捉序列中的短期和长期依赖关系。长短期记忆网络(LSTM)是一种特殊类型的循环神经网络(RNN),它能够学习到长期依赖关系。LSTM通过引入三种门控机制——输入门、遗忘门和输出门——来控制信息的流动,有效解决了传统RNN中的梯度消失问题。原创 2024-07-20 16:01:07 · 1145 阅读 · 0 评论 -
Week 5-杨帆-学习总结
通过继承PyTorch的Dataset类,实现了一个VOCSegDataset类,能够加载和预处理VOC数据集。语言模型是自然语言处理领域的核心,它的目标是估计文本序列的联合概率。理想情况下,语言模型能够基于给定的文本片段生成自然、流畅且符合语法的文本。尽管当前技术尚未达到完全理解文本的深度,但语言模型在诸如语音识别、文本摘要生成等应用中发挥着重要作用。循环神经网络是一种适合于序列数据的神经网络,其核心特点是引入了隐状态来存储序列信息。原创 2024-07-07 12:45:03 · 896 阅读 · 0 评论 -
Week 6-杨帆-学习总结
为了加载和处理VOC数据集,可以自定义一个数据集类,该类继承自高级API提供的Dataset类。通过实现方法,可以方便地访问数据集中的图像及其对应的类别索引。同时,通过filter方法移除尺寸不符合要求的样本,并使用方法对图像进行标准化处理。序列模型是用来处理时间序列数据或任何具有时间依赖性的数据的一种模型。这类数据常见于金融股票价格预测、气象预报、用户行为分析等领域。语言模型是自然语言处理中的核心工具,它用于预测文本序列中词元的出现概率。原创 2024-07-14 09:14:53 · 901 阅读 · 0 评论