人工智能
文章平均质量分 90
网络安全大白
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
终于!有人总结了大模型学习资料!零基础入门到精通,收藏这一篇就够了
大家好,我发现了一个大模型学习的神库,包含大量LLM教材和资料,并绘制了学习路线图。可以帮助快速掌握大模型的应用和开发技巧。原创 2024-09-05 08:56:01 · 1511 阅读 · 0 评论 -
想转行AI大模型开发但不知如何下手?掌握这四个开源工具,让你领先一步!
Hugging Face是现在最大的AI开源社区,里面提供了很多的预训练模型,是一个模型库,很多人会把自己训练好的模型上传上去,大家可以免费下载使用。下载下来之后,我们就可以在此基础之上,进行微调或者推理,不用从0去训练一个大模型。并且大家可能都知道,微调模型时,数据的准备是一件费时费力的事,而在Hugging Face上也有很多的数据集,可供大家下载使用。所以Hugging Face也被人称作:AI领域的GitHub。原创 2024-08-22 20:55:40 · 683 阅读 · 0 评论 -
一文彻底搞懂Transformer - 总体架构,零基础入门到精通,收藏这一篇就够了
*********:******编码器:**********c****Transformer起源:******Google Brain 翻译团队通过论文《Attention is all you need》提出了一种全新的简单网络架构——****************注意力机制:**************注意力计算Q、K、V:******而设计的。************Transformer总体架构:**********************Transformer核心组件:******原创 2024-08-22 08:37:18 · 1527 阅读 · 0 评论 -
浅谈云安全之基础知识概览,零基础入门到精通,收藏这一篇就够了
命名空间是 Linux 内核提供的一种机制,用于隔离系统资源和进程之间的视图,使它们看起来像是在不同的环境中运行,从而实现进程间的隔离和资源的隔离管理。内容概要:包括 内网、操作系统、协议、渗透测试、安服、漏洞、注入、XSS、CSRF、SSRF、文件上传、文件下载、文件包含、XXE、逻辑漏洞、工具、SQLmap、NMAP、BP、MSF…每个 PID 命名空间都会创建一个独立的 PID 树,使得在不同的 PID 命名空间中的进程可以有相同的 PID,但实际上代表的是不同的进程。原创 2024-08-21 09:20:01 · 964 阅读 · 0 评论 -
AI大模型:什么是微调?零基础入门到精通,收藏这一篇就够了
*轻量化微调 (Parameter Efficient Fine-Tuning,PEFT)😗*一种优化策略,用于减少模型的计算资源需求,同时保持或提高模型性能。由于大模型的参数太大,即使是fine-tuning通常也需要很大的算力和数据,因此提出在保持原有大模型参数不变的前提下,注入少量参数,通过只训练该部分参数的方式来实现微调目的。在机器学习和深度学习领域,训练、预训练、微调和轻量化微调是几个重要的概念,它们通常用于模型的构建和优化过程中。训练是机器学习模型学习数据特征和模式的过程。原创 2024-08-21 08:51:31 · 921 阅读 · 0 评论 -
用PyTorch构建Transformer模型实战(非常详细)零基础入门到精通,收藏这篇就够了
多头注意力机制计算序列中每对位置之间的注意力。它由多个“注意力头”组成,这些头捕获输入序列的不同方面。图1. 多头注意力# 确保模型维度(d_model)可以被注意力头数整除assert d_model % num_heads == 0, "d_model必须能被num_heads整除"# 初始化维度self.d_model = d_model # 模型的维度self.num_heads = num_heads # 注意力头的数量。原创 2024-08-17 09:15:00 · 5551 阅读 · 0 评论 -
讲透一个强大算法模型,Transformer !!零基础入门到精通,收藏这一篇就够了
这里,再给大家总结一下~1. 自注意力:2. 多头注意力:3. 位置编码:通过这些公式和结构,Transformer模型能够高效地处理序列数据,并捕捉长距离依赖关系,极大地提升了自然语言处理任务的性能。我们将使用一个简单的中英文平行语料库来训练Transformer模型。这些数据可以从公开的多语言数据集(如Tatoeba项目)中获取。中文: 你好吗?英文: How are you?原创 2024-08-16 21:16:24 · 1149 阅读 · 0 评论 -
如何从零训练多模态大模型(预训练方向)零基础入门到精通,收藏这一篇就够了
参考 Finetune LLaVA on Custom Datasets[13]将训练样本以列表的形式保存到 json 文件,其中每一个样本是一个字典,它至少包含三个字段:• id:全局唯一的字符串• image:图片的路径,可以是绝对路径,也可以是相对于image_folder的相对路径• conversations:人类和语言模型的对话完成数据的处理后,修改 finetune.sh[14] 中的 data_path 参数(必须)以及其他想要调整的参数(可选,例如学习率)。原创 2024-08-15 20:00:23 · 1441 阅读 · 0 评论 -
月薪3w起,AI产品经理的5点认知(非常详细)零基础入门到精通,收藏这一篇就够了
最近接触了三,四篇不错的关于AI产品经理采访报告,干货很多,结合他们说到的点,以及我自己目前在AI 工作中遇到的困难, 整理归纳成这篇文章目前发文章不频繁, 确实在AI领域知识上有些停滞, 有点瓶颈期的感觉, 也没有太多特别有用的输入,上个月从 zlibrary下载了好几本相应的电子书, 也还没有时间看,这点得反省反省01 产品,用户,技术上一代产品经理解决的是 PMF,即产品和市场/用户的 fit,这一代AI产品经理还要先解决 TPF,即产品和技术的 fit。原创 2024-08-13 20:51:41 · 752 阅读 · 0 评论 -
AIGC大模型实践总结(非常详细)零基础入门到精通,收藏这一篇就够了
而他们的底座就是大模型(Large Models),大模型在人工智能领域通常指的是具有大量参数的(通常包含十亿甚至千亿参数)、复杂计算结构和强泛化能力的机器学习模型。其主要特点包括:大量参数:大模型拥有庞大的参数量,通常包含十亿甚至千亿参数,远超过传统的小型模型。使其具备极高的表达能力,能够模拟和学习非常复杂的函数关系。强大的学习能力:由于参数量巨大,这些模型具有强大的学习和泛化能力,能够在各种任务上达到或超越人类的表现。原创 2024-08-07 20:47:04 · 2748 阅读 · 0 评论 -
简单几步,免费微调大语言模型(非常详细)零基础入门到精通,收藏这一篇就够了
我总是受大脑运行方式的启发…大脑收集信息,然后对信息进行加权再输出,问题就在于,怎么调整这些权重使这些信息发挥作用。—— 杰弗里·辛顿今天和大家分享下,怎么用开源工具免费微调大模型。要用到的工具有:autotrain:huggingface开放的零代码大模型微调平台,无需编程,只需要通过简单的界面操作就能够进行colab:一个在线交互式Python运行环境,主要是用来提供大模型微调时的云端计算资源接下来大家按照以下步骤操作,就能快速拥有一个属于自己的大模型1、注册huggingface账号。原创 2024-08-03 05:15:00 · 923 阅读 · 0 评论 -
【大模型】LoRA模型微调-基于transformers框架的示例,零基础入门到精通,收藏这一篇就够了
本文将完整介绍使用LoRA进行模型微调。使用框架。代码可以在 我的github[1] 上找到。原创 2024-08-02 17:56:18 · 3069 阅读 · 0 评论 -
一篇文章教你玩转,入门级 SQL 注入实战!
得到users表的所有字段。uname=a&passwd=a’union select database(),2 # &submit=Submit查询到当前的数据库为security,或者使用:uname=a’ union select database(),2 # & passwd=a&submit=Submit均可查询到当前数据库,当然也可以查询其它信息。Password同理。网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己录的网安视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。原创 2024-08-03 07:15:00 · 1057 阅读 · 0 评论 -
大模型微调实战项目总结(非常详细)零基础入门到精通,收藏这一篇就够了
不知不觉之间,距开源ChatGLM-Finetuning项目已经过去了8个月。大模型也在飞速的发展,开源社区也是越来越活跃,开源模型越来越多。中间更新过一次,将代码重构让大家更容易理解,本次更新主要增加ChatGLM3模型和增加模型预测代码。本项目主要针对ChatGLM、ChatGLM2和ChatGLM3模型进行不同方式的微调(Freeze方法、Lora方法、P-Tuning方法、全量参数等),并对比大模型在不同微调方法上的效果,主要针对信息抽取任务、生成任务、分类任务等。原创 2024-08-01 11:54:49 · 1015 阅读 · 0 评论 -
【大模型微调】一文掌握7种大模型微调的方法,零基础入门到精通,收藏这一篇就够了
本篇文章深入分析了大型模型微调的基本理念和多样化技术,细致介绍了LoRA、适配器调整(Adapter Tuning)、前缀调整(Prefix Tuning)等多个微调方法。详细讨论了每一种策略的基本原则、主要优点以及适宜应用场景,使得读者可以依据特定的应用要求和计算资源限制,挑选最适合的微调方案。大型语言模型(LLM)的训练过程通常分为两大阶段:阶段一:预训练阶段在这个阶段,大型模型会在大规模的无标签数据集上接受训练,目标是使模型掌握语言的统计特征和基础知识。原创 2024-08-01 11:35:55 · 2118 阅读 · 0 评论 -
从零开始学习大模型,大模型微调实战(非常详细)零基础入门到精通,收藏这一篇就够了
lora微调原理论文:原创 2024-07-31 17:09:33 · 904 阅读 · 0 评论 -
新手如何入门黑客技术,黑客技术入门该学什么?零基础入门到精通,收藏这一篇就够了
经过以上几步你就算是入门黑客技术了,之后就是经验的积累和大量的练习,当然在这个过程中你会遇到各种各样的问题,这时如果有人可以交流就更好了,可能自己好几天解决不了的问题,别人一说你就懂了,有鉴于此,我新建了一个功重号,白帽黑客训练营,大家可以关注一下,有什么不懂的可以留言给我,想要成为黑客要耐得住寂寞,也要有好的学习方法,剩下的就交给时间吧。网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己录的网安视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。你是否曾经也对黑客技术感兴趣呢?原创 2024-07-31 14:24:10 · 337 阅读 · 0 评论 -
如何做好大模型时代的产品经理的几点思考(非常详细)零基础入门到精通,收藏这一篇就够了
随着人工智能技术的飞速发展,大模型时代已经到来,对产品经理提出了更高的要求和挑战。在这个新的时代背景下,产品经理需要不断思考和探索,以适应和引领市场的变化。原创 2024-07-30 13:44:34 · 828 阅读 · 0 评论 -
科普 | 人工智能大模型时代,八种常见的“数据标注”方法,零基础入门到精通,收藏这一篇就够了
你知道的数据标注都有哪些?数据标注(Data Annotations)是指对收集到的、未处理的原始数据或初级数据,包括语音、图片、文本、视频等类型的数据进行加工处理,并转换为机器可识别信息的过程。矩形框标注是一种的简单处理方式,常用于等。多边形标注是指在静态图片中,使用多边形框,标注出不规则的目标物体,相对于矩形框标注,**多边形标注能够更精准地框定目标,**同时对于不规则物体,也更具针对性。语义分割是指根据物体的属性,,以帮助训练图像识别模型,常应用于自动驾驶、人机交互、虚拟现实等领域。原创 2024-07-29 21:08:19 · 2254 阅读 · 0 评论 -
大学里的网络安全专业要学哪些内容? 全部基础知识汇总!零基础入门到精通,收藏这一篇就够了
内容概要:包括 内网、操作系统、协议、渗透测试、安服、漏洞、注入、XSS、CSRF、SSRF、文件上传、文件下载、文件包含、XXE、逻辑漏洞、工具、SQLmap、NMAP、BP、MSF…网络安全的就业前景广阔,对具备相关技能和知识的人才需求量大,而且薪资水平较高。**4.网络协议:**熟悉常见的网络协议(如TCP/IP、HTTP、DNS、SMTP等),包括协议的原理、功能和安全特性。**21.恶意软件与攻击:**了解常见的恶意软件类型(如病毒、木马、蠕虫、勒索软件)和防御技术,如防病毒软件、防火墙等。原创 2024-07-27 08:15:00 · 1916 阅读 · 0 评论 -
中专生读网络信息安全专业轻松就业!(非常详细)零基础入门到精通,收藏这一篇就够了
以上就是关于网络信息安全专业的一些相关内容介绍,就以上内容来看该专业的就业前景还是比较乐观的,并且也有一定的发展空间,所以如果有对该专业感兴趣的同学不妨可以好好考虑一下,毕竟这是与我们未来的发展有关,还是要谨慎选择,看看自己的学习能力是否能胜任这个专业,这样才能以后发展的更好。内容概要:包括 内网、操作系统、协议、渗透测试、安服、漏洞、注入、XSS、CSRF、SSRF、文件上传、文件下载、文件包含、XXE、逻辑漏洞、工具、SQLmap、NMAP、BP、MSF…原创 2024-07-27 10:15:00 · 1299 阅读 · 0 评论 -
轻松搭建AI应用的三个大模型技术路线(非常详细)零基础入门到精通,收藏这一篇就够了
和。原创 2024-07-27 06:45:00 · 928 阅读 · 0 评论 -
大模型的训练数据解决方案深度分析 2024(非常详细)零基础入门到精通,收藏这一篇就够了
数据是大模型的关键要素,其所需的数据的种类也非常广泛,涉及多种模态。以语言大模型为例,其所需要的数据包括多语言数据、代码数据、人工标注数据等多种类别。根据大模型训练的尺度定律(scaling law),数据规模、模型参数与大模型性能存在紧密关系。近期,微软研究工作表明提高数据质量可以极大地改变尺度定律的形状。该方法表明,通过构建高质量的数据,可以大大降低大模型训练需要的数据规模,具有重要指导意义。下面是几类用于提升数据质量的预处理方法。原创 2024-07-26 11:49:10 · 1844 阅读 · 0 评论 -
一份全面的VMware替换数据迁移指南(非常详细)零基础入门到精通,收藏这一篇就够了
纳管迁移在迁移流程上并未进行复杂的工程化处理,比如在迁移过程中不能对配置进行修改、在数据传输完成后自动进行切换、在切换时自动关闭源端虚拟机,因此其适用于那些不关注迁移过程的应用系统,如需实现迁移配置变更、定时切换、无人值守等能力,请使用SCMT迁移工具进行。**目前主流的迁移方式是以首次全量+持续增量的传输模式实现虚拟机的在线迁移,**在不影响虚拟机运行状态的情况下,通过多次的数据传输将源端数据迁移至目标端,通过提高传输频率来减少差异数据量,通过停机切换来同步最后的差异数据保证迁移前后的数据一致性。原创 2024-07-26 08:51:10 · 1417 阅读 · 0 评论 -
大模型知识库架构设计和落地困境(非常详细)零基础入门到精通,收藏这一篇就够了
*1**__—以下这张图可能许多同学都见过,它展示了一个文档处理流程:首先,将PDF、PPT、Word 等格式的文档进行分割,然后转换为嵌入(Embedding)形式,并存储到向量数据库里。在问答环节,系统会检索并提取与问题相关的文档块,接着构建一个提示词(Prompt),将其输入到一个大语言模型中,最终由模型生成相应的问答内容。以上架构本质上解决两大核心问题:如何突破传统 tokens 数量的限制,以及如何更精准地提炼出问题的本质。:将长文本分解为易于管理的小段或碎片的算法。原创 2024-07-25 13:46:20 · 1434 阅读 · 0 评论 -
Qwen2大模型保姆级部署教程,快速上手最强国产大模型(非常详细)零基础入门到精通,收藏这一篇就够了
随着美国对于大模型开源项目的限制加码,llama系列未来还能否随心所欲地使用存在疑问,但最近国产大模型的不断发展也让我们看到了希望,尤其是这次Qwen2的发布,似乎更让我们找到了答案。原创 2024-07-25 11:58:25 · 2786 阅读 · 0 评论 -
2024版最新中国AI大模型平台排行榜(非常详细)零基础入门到精通,收藏这一篇就够了
这两天在AI圈,世界人工智能大会(WAIC)在线上线下持续火热发酵。作为一年一度的AI盛事,此次大会无疑是各大AI厂商秀肌肉的最佳展示舞台。根据WAIC官方数据,今年有500余家企业参展,市外企业和国际企业占比超过50%,展品数量超1500项,参展企业数、亮点展品数和首发新品数均创下了历史最高。总体来看,大模型应用和基础设施成为此次大会的核心主题。原创 2024-07-22 09:36:17 · 4400 阅读 · 0 评论 -
筛选大模型的应用场景(非常详细)零基础入门到精通,收藏这一篇就够了
在当前人工智能发展的背景下,大模型因其强大的数据处理和学习能力,在众多场景中都有着广泛的应用。在当前人工智能发展的背景下,大模型因其强大的数据处理和学习能力,在众多场景中都有着广泛的应用。然而,面对市场上五花八门的大模型,如何选择最适合特定场景的模型成为了许多人面临的问题。“小切口,大纵深”的方法论强调从具体应用场景出发,深入了解大模型的基本特性和性能差异,结合实际需求进行综合考量。通过这一方法论,我们可以更加科学和高效地选择适合特定场景的大模型。一、企业数转智改阶段评估。原创 2024-07-19 17:40:48 · 1073 阅读 · 0 评论 -
大语言模型机器学习框架(非常详细)零基础入门到精通,收藏这一篇就够了
大语言模型是自然语言处理(NLP)领域中使用的一种技术,它们通过训练大量文本数据,从而学会理解和生成人类语言。这些模型通常采用深度学习方法,其中最常用的是变形金刚(Transformer)机器学习框架。在机器学习领域,有很多种技术框架可以用来构建和训练这些大语言模型。选择哪个框架通常取决于个人偏好、项目需求以及团队的熟悉程度。每个框架都有其优点和适用场景。一、常用的机器学习框架在人工智能和机器学习领域,有许多不同的框架可供选择,这些框架各有特点,适用于不同类型的任务和应用场景。原创 2024-07-21 07:30:00 · 1265 阅读 · 0 评论 -
大模型是如何学习的(非常详细)零基础入门到精通,收藏这一篇就够了
不是所有的模型都一定能在训练过程中收敛,像模型本身有问题,训练数据有问题,或者超参数设置的有问题,都可能导致模型训不出来,一直在波动。常见的超参数包括批量大小,迭代步数,激活函数,还有优化器选择等等,它们不改变模型结构,但是会控制模型怎么训练这个过程。在这其中最重要的一个超参数是学习率,学习率决定的是模型参数的更新幅度。但超参数还不是最麻烦的,真正从底层决定训练能不能成的,其实是模型的结构本身。图片来源:百度当年深度学习曾经差点没发展下去,就是发现层数增加到一定程度后,模型就学不明白了。原创 2024-07-21 08:00:00 · 944 阅读 · 0 评论 -
2024大模型应用实践报告(非常详细)零基础入门到精通,收藏这一篇就够了
人工智能大模型,是指通过在海量数据上依托强大算力资源进行训练后能完成大量不同下游任务的模型。大模型以其在模型精度和泛化能力等多个指标上超越传统AI模型的表现,以及赋能千行百业的巨大潜力,成为当今世界各国人工智能技术发展的核心方向。大模型经过近一年半的高速发展,已在政府、医院、学校、企业等各类需求群体中建立初步认知。其中一部分需求群体设立专项预算、开放业务场景,对大模型进行试点应用。原创 2024-07-20 08:15:00 · 1460 阅读 · 0 评论 -
万字长文!看大公司如何开发大模型智能应用(非常详细)零基础入门到精通, 收藏这一篇就够了
从 BERT、GPT、T5 等通用大模型展示了令人瞩目的语言理解和 NLP 任务解决能力,到 ChatGPT 惊艳发布,再到国产大模型的百花齐放,我们目睹了大模型通过海量参数和强大的学习能力,不仅在问答、对话、摘要、翻译等任务上取得了不错的成果,更是推动了人工智能的边界不断扩展。而在百模大战之后,国内也迅速进入应用爆发的阶段,无论是创建逼真的聊天机器人、GPTs,还是垂直行业的大模型工程实践,这些应用都展示了大模型在实际场景中的巨大潜力。原创 2024-07-18 09:42:51 · 1128 阅读 · 0 评论 -
深入浅出分析AI大模型的技术原理,零基础入门到精通,收藏这一篇就够了
强化学习,是让模型在环境里采取行动,获得结果反馈,从反馈里学习,从而能在给力情况下采取最佳行动来最大化奖励或是最小化损失。举例:和训练小狗类似,刚开始的时候,小狗会随心所欲做出很多动作,但随着和训犬师的互动,小狗会发现某些动作能够获得零食,某些动作没有流失,某些动作甚至会遭受惩罚。通过观察动作和奖惩之间的联系,小狗的行为会逐渐接近训犬师的期望。强化学习可以应用在很多任务上,举例:让模型下围棋时,获得不同行动导致的奖励或损失反馈,从而在一局游戏里优化策略,学习如何采取行动达到高分。原创 2024-07-14 10:00:00 · 1408 阅读 · 0 评论 -
大模型原理解析(非常详细)零基础入门到精通,收藏这一篇就够了
大模型是指具有数千万甚至数亿参数的深度学习模型。近年来,随着计算机技术和大数据的快速发展,深度学习在各个领域取得了显著的成果,如自然语言处理,图片生成,工业数字化等。为了提高模型的性能,研究者们不断尝试增加模型的参数数量,从而诞生了大模型这一概念。本文讨论的大模型将以平时指向比较多的大语言模型为例来进行相关介绍。原创 2024-07-13 09:49:00 · 5669 阅读 · 0 评论 -
大语言模型(LLMs)全面学习指南(非常详细)零基础入门到精通,收藏这一篇就够了
大语言模型(LLMs)作为人工智能(AI)领域的一项突破性发展,已经改变了自然语言处理(NLP)和机器学习(ML)应用的面貌。这些模型,包括OpenAI的GPT-4o和Google的gemini系列等,已经展现出了在理解和生成类人文本方面的令人印象深刻的能力,使它们成为各行各业的宝贵工具。如下这份指南将涵盖LLMs的基础知识、训练过程、用例和未来趋势……大语言模型(LLMs)是一种深度学习模型,专门设计用于理解、分析和生成类似人类的文本。原创 2024-07-11 19:04:02 · 1555 阅读 · 0 评论 -
Linux内核的启动过程(非常详细)零基础入门到精通,收藏这一篇就够了
内核的生成步骤可以概括如下:① 先生成 vmlinux,这是一个elf可执行文件。② 然后 objcopy 成 arch/i386/boot/compressed/vmlinux.bin,去掉了原 elf 文件中一些无用的section等信息。③ gzip 后压缩为 arch/i386/boot/compressed/vmlinux.bin.gz。④ 把压缩文件作为数据段链接成 arch/i386/boot/compressed/piggy.o。⑤ 链接:arch/i386/boot/compressed/原创 2024-07-09 08:41:12 · 3416 阅读 · 0 评论 -
微信使用设置选项必知必会(非常详细)零基础入门到精通, 收藏这一篇就够了
然而,在使用微信的过程中,有些功能可能会泄露我们的隐私。然而,这个功能可能会泄露我们的隐私。关闭微信运动可以通过以下步骤实现:打开微信,点击“我”,然后选择“设置”,接着点击“通用”,最后选择“辅助功能”,找到“微信运动”,选择“停用”。关闭微信游戏可以通过以下步骤实现:打开微信,点击“我”,然后选择“设置”,接着点击“通用”,最后选择“发现页管理”,找到“游戏”,选择“关闭”。网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己录的网安视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。原创 2024-07-09 08:39:38 · 2074 阅读 · 0 评论 -
上海交大的大模型实战教程(非常详细)零基础入门到精通,收藏这一篇就够了
今天分享一个,有相关教程文档和Slides,目前是,还是挺火的。原创 2024-07-08 11:51:24 · 1213 阅读 · 0 评论 -
大模型范式下的知识检索增强实践(非常详细)零基础入门到精通,收藏这一篇就够了
当RAG链路中使用原始Query没能检索到可回答的文档时,我们就需要通过对原Query进行改写来实现对相关搜索文档的扩充。现阶段,尽管大模型自身可以实现Query改写,但因其高昂的调用成本,RAG链路中小型改写模型仍非常重要。目前学术界和工业界改进小型Query改写模型的主要思路之一是基于强化学习反馈。然而,过去对于改写的反馈通常基于标注数据如特定数据集的标注文档或特定任务的标注答案等。在通义的开放域问答场景往往缺乏这样的标注,此外依赖标注数据的反馈思路缺乏足够的泛化能力。原创 2024-07-05 09:35:39 · 1800 阅读 · 0 评论 -
思维模型:看透本质的思维框架,和它组合个个是王炸(非常详细)零基础入门到精通, 收藏这一篇就够了
讲了这么多,做个总结。1.黄金思维圈:由内向外分别是Why(为什么做)、How(怎么做)和What(做什么),是知行合一的一个途径和过程(How)。黄金思维圈+福格行为模型=知行合一的王炸。2.为什么从「为什么」开始:追寻事物的意义,深挖问题的原因,传递内容的价值。3.Why分析法:结合黄金思维圈,对问题不断问为什么,追究其根本原因,提出措施,行动以解决问题。4.主题框架:构建黄金思维圈+沟通三要素的表达框架,与对方产生连结,助其掌握全貌,实现价值传递。原创 2024-07-01 10:40:53 · 1664 阅读 · 0 评论
分享