自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(33)
  • 收藏
  • 关注

原创 计算机网络关键名词中英对照

Internet Control Message Protocol - 互联网控制消息协议。- Internet Group Management Protocol - 互联网组管理协议。- Classless Inter-Domain Routing - 无类别域间路由。- Transmission Control Protocol - 传输控制协议。- Routing Information Protocol - 路由信息协议。

2024-10-27 21:58:21 1194

原创 【计算机网络最全知识点问答】第三章 数据链路层

数据链路除了物理线路外,还必须有通信协议来控制这些数据的传输。若把实现这些协议的硬件和软件加到链路上,就构成了数据链路。数据链路层的基本功能包括向网络层提供可靠的、透明的数据传输服务,将源节点的网络层数据可靠地传送到相邻节点的网络层。主要功能有链路管理、封装成帧、流量控制、差错控制、将数据和控制信息区分开、透明传输、寻址等。组帧的方法有:- 字节计数法:在帧头设置一个长度域,放置该帧的字节数,当收方收到帧后,通过帧的长度,确定帧的开始。但当帧的长度域出错,帧同步完全丢失,且该方法很少单独使用。

2024-10-14 13:08:28 791

原创 【计算机网络超强概念总结】第三章 数据链路层

一、数据链路层基本概念 链路:一条无源的点到点的物理线路段,中间没有任何其他的交换结点。 数据链路:除了物理线路外,还必须有通信协议来控制这些数据的传输。若把实现这些协议的硬件和软件加到链路上,就构成了数据链路。 数据链路层的主要功能: 链路管理:数据链路的建立、维持和释放。 封装成帧:在一段数据的前后分别添加首部和尾部,构成一个帧。 流量控制:控制发送方发送数据的速率,使接收方能来得及接收。 差错控制:包括检错和纠错,通过

2024-09-27 14:27:31 1037

原创 【OpenAI o1思维链CoT必看论文】谷歌“思维链提示“让AI更懂人类推理

在GSM8K数学单词问题数据集上,PaLM540B模型配合思维链提示取得了74.4%的准确率,这一成绩不仅大幅超越了标准提示方法(58.1%),更是超过了此前经过微调的GPT-3模型保持的最佳记录(55%)。值得注意的是,这一突破是在仅使用8个示例进行少样本学习的情况下实现的,充分体现了思维链提示方法的强大效果。这种方法不仅提高了模型的性能,还增强了AI系统的可解释性,使我们能够更好地理解AI是如何得出结论的。这项技术不仅推动了AI性能的提升,更重要的是,它为我们理解和改进AI的思维过程提供了宝贵的工具。

2024-09-26 18:03:09 1326

原创 【计算机网络最全知识点问答】第二章 物理层

解答问题数据通信系统由源系统(发送端、信源)、传输系统、目的系统(接收端、信宿)组成。源系统包括源点和发送器,目的系统包括接收器和终点。模拟信号是连续变化的电压或电流波形,数字信号是一系列表示“0”和“1”的电脉冲(码元)。模拟信号可以表示连续的数值范围,数字信号只能取离散的数值。奈氏准则:每赫带宽的理想低通信道的最高码元传输速率是每秒 2 个码元,即理想低通信道的最高码元传输速率 = 2W Baud(W 是理想低通信道的带宽,单位为赫);

2024-09-25 22:22:03 1201

原创 【计算机网络超强概念总结】第二章 物理层

美国推出的同步光纤网数字标准,整个同步网络的各级时钟都来自一个非常精确的主时钟,传输基本速率为 51.84Mb/s。:每位的中间有一个跳变,但它不是用这个跳变来表示数据的,而是利用每个码元的开始时有无跳变来表示“0”或“1”。:在一个码元的全部时间内,非零电压的持续时间小于一个码元的时间,在一个码元的后半部分时间内,电压总是归于零。:当信道的带宽大于各路信号的总带宽时,可以将信道分割成若干个子信道,每个子信道用来传输一路信号。:每位中间有一个电平跳变,从低到高的跳变表示“0”,从高到低的跳变表示“1”。

2024-09-25 22:11:41 1320 2

原创 【计算机网络最全知识点问答】第一章 概述

什么是计算机网络?计算机网络是一个系统,它通过通信设备、线路和通信软件(操作系统、协议等)将位于不同位置的多台自治计算机互连起来,以实现资源共享。网络是计算机和通信技术的集成,一个互联的自主的计算机集合。Tanenbaum 将其定义为一个互联的自主的计算机集合,其中互联是指计算机之间有通信信道相连且可以交换信息,自主是指计算机之间没有主从关系,所有计算机平等独立。计算机网络建立的主要目的是实现计算机资源的共享,包括硬件、软件、数据共享。连网计算机必须遵循全网统一的网络协议。

2024-09-24 06:00:00 1651 1

原创 【计算机网络超强概念总结】第一章 概述

专用名词,指全球最大的、开放的,由众多网络相互连接而成的特定计算机网络,它由美国阿帕网(ARPANET)发展而成,主要采用 TCP/IP 协议作为通信的规则。:通过一定的手段,将有差错的物理链路转化成对网络层来说没有传输错误的数据链路,以数据帧为单位进行传输,包括成帧、差错控制、流量控制、物理寻址、媒体访问控制等功能。:在物理媒体上传输原始的比特流,包括机械的、电气的和通讯过程的接口,如信号的编码、网络接插件的电、机械接口等。:由大量网络和连接这些网络的路由器组成,为边缘部分提供服务,实现连通性和交换。

2024-09-24 05:45:00 1491

原创 【深度】为GPT-5而生的「草莓」模型!从快思考—慢思考到Self-play RL的强化学习框架

OpenAI的「草莓」模型就是一个典型的例子,它通过引入自我对弈强化学习(self-play RL)等新范式,试图让大模型在保持快速思考的同时,增强数理推理和逻辑判断的能力。这种创新不仅有望直接提升大模型的性能,同时引入的新的范式中间思考的过程可以再次生成高质量的数据为下一代的GPT-5提供新的数据,切实解决当下的数据困境。在最新的大模型进展中,OpenAI的「草莓」模型无疑是备受关注。最近一年的进展,似乎许多人对AGI的梦想又破灭了,但是人们总是会无限高估一项新技术的诞生,又会低估其在未来长远的影响。

2024-09-23 23:02:19 1462

原创 OpenAI o1团队突破性论文:『过程推理』中数学推理能力大幅提升,从正确中学习的新方法

OpenAI的研究团队提出了一种创新方法,从"正确"中学习,而不是传统上关注错误。这种方法被称为"过程监督",重点关注推理过程中的每一个正确步骤,而不仅仅是最终结果。通过这种方式,AI模型能够更好地理解和复制人类认可的推理过程,从而显著提高其数学问题解决能力。这项突破性研究不仅大幅提升了AI在数学推理方面的表现,还为解决更广泛的AI对齐问题提供了新的思路。研究团队发现,相比传统的仅关注结果的方法,这种新方法能够产生更可靠、更易解释的AI推理过程,同时在效率和准确性方面都取得了显著进展。

2024-09-23 22:57:05 1446

原创 一文弄懂线性代数与矩阵论的本质区别

比如说,如果把一件物体放在三维空间里,线性代数可以用一个向量表示这件物体的位置;这就是线性代数和矩阵论所研究的本质内容。线性代数的本质是研究空间中的直线和平面这样的简单几何对象。我们生活在一个三维的空间世界里,但线性代数研究的往往是更高维的空间。线性代数使用向量来描述空间中的点和方向,使用线性变换描述空间中对象的变换规律。矩阵就是将这些抽象的向量和变换用数字表示出来的方式。每个矩阵代表了一种特定的线性变换,矩阵的运算对应了用这种变换作用在向量上所得到的结果。

2024-05-02 12:14:02 1696

原创 第二期书生浦语大模型训练营第六次作业

完成 AgentLego 直接使用部分。完成 Lagent Web Demo 使用。

2024-04-25 22:47:56 204

原创 第二期书生浦语大模型训练营第七次作业

成功使用 OpenCompass 评测 internlm2-chat-1_8b 模型在 C-Eval 数据集上的性能。

2024-04-25 22:40:01 207

原创 第二期书生浦语大模型训练营第四次笔记

XTuner内置很多微调算法,功能强大,更方便的是还可以适配不同的数据格式,简化数据处理流程。XTuner 微调 LLM:1.8B、多模态、Agent_哔哩哔哩_bilibili。

2024-04-24 23:00:55 1089

原创 第二期书生浦语大模型训练营第四次作业

最后选用进行832轮对话的权重文件进行模型转换,会发现已经有些过拟合了,输入“你好”也只会输出“我是社会你超哥的小助手······”这一句话了。环境准备->数据集准备->模型准备->配置文件选择->使用配置文件训练->模型转换->模型整合->对话测试。

2024-04-24 22:59:29 187

原创 第二期书生浦语大模型训练营第五次笔记

KV8量化是指将逐 Token(Decoding)生成过程中的上下文 K 和 V 中间结果进行 INT8 量化(计算时再反量化),以降低生成过程中的显存占用。W4A16 量化,将 FP16 的模型权重量化为 INT4,Kernel 计算时,访存量直接降为 FP16 模型的 1/4,大幅降低了访存成本。的思路是利用大型教师模型来指导小型学生模型的训练,使学生模型能够学习到教师模型的知识,从而在保持较好性能的同时大幅减小模型的规模。则是通过剔除模型中不重要的参数和计算,来缩小模型的尺寸。

2024-04-16 12:55:34 964 1

原创 第二期书生浦语大模型训练营第五次作业

安装好环境,并成功激活。

2024-04-16 12:55:30 400 1

原创 卷积神经网络(CNN)笔记——多图深入理解

卷积神经网络是一种精心设计的神经网络架构,内部结构精妙高效,赋予了它强大的特征提取和表达能力。作为推动人工智能飞速发展的重要力量,CNN无疑是深度学习领域最杰出、最广泛应用的模型之一。通过对输入数据进行多层次的卷积和池化操作,CNN可以从低级到高级、从小尺度到大尺度地逐步提取特征。卷积层发挥了特征提取的核心作用,池化层起到降维和压缩特征的效果,而全连接层则负责将这些分布式特征整合,得出最终结论,完成分类、预测等任务。

2024-04-13 12:00:05 1003

原创 卷积学习笔记——一文直观形象弄懂

因此,卷积不仅是一种数学美妙的运算,更是人工智能领域中一个行之有效的"法术",赋予了神经网络强大的特征提取能力。在神经网络的世界中,卷积操作犹如一个神秘的魔术师,它以一种精巧的方式提取出图像、声音等数据中的关键特征,为神经网络模型赋能。如果我们把火车头方向反过来(加上负号),并让火车动起来(加上时间t),那么火车头与隧道入口的重叠面积(两个函数相乘)就是著名的卷积公式了。通过多层卷积和pooling操作的组合,CNN可以逐步提取出图像的高级语义特征,最终实现对图像的精准分类和识别。

2024-04-12 19:23:44 678

原创 神经网络学习笔记——大白话直观理解!

同样,神经网络也会通过中间的各种结构和计算,将输入数据分类到正确的输出类别中。总的来说,神经网络通过对输入数据进行多层次的非线性变换,提取出高层次的抽象特征,从而实现对复杂模式的精准识别和分类。在这个过程中,神经网络也可能会对输入数据进行升维操作,使其从原始的低维数据空间映射到更高维的特征空间,增强数据的可分离性。例如,在手写数字识别任务中,一个浅层神经网络可能只能识别较为简单的数字形状,但通过叠加多个隐藏层后,网络就能逐步提取更高层次的特征,比如圆形、拐角等,最终精准识别各种笔画复杂的手写数字。

2024-04-12 18:51:58 476

原创 第二期书生浦语大模型训练营第三次作业

此处会发现茴香豆仍然存在一些缺点,会发现在多个回答中都参考了同一个文档并且没有进一步去查找知识库中的其他文档,导致最后生成的回答质量有一定缺陷,通过以下图可以发现,多次出现的文档《全球最大对冲基金桥水基金CEO达里奥》是在最先输入进入知识库的,可以推测知识库查找是按照顺序查找,找到符合的资料会导致后续文档的引用权重减少。进入web页面,传输属于自己的文件,此处进行输入大量投资领域资料,构建个人投资者问答助手。通过接受和拒答数据库,可以在群聊中更有针对性的回答问题,较少资源消耗。数据库向量化的过程应用到了。

2024-04-12 16:26:54 293

原创 第二期书生浦语大模型训练营第三次笔记

RAG(Retrieval Augmented Generation)技术,通过检索与用户输入相关的信息片段,并结合来生成更准确、更丰富的回答。解决 LLMs 在处理知识密集型任务时可能遇到的挑战, 如幻觉、知识过时和缺乏透明、可追溯的推理过程等。提供更准确的回答、降低推理成本、实现外部记忆。重点是可以构建外部知识库来完成问答,方便快捷,不用深入内部对模型进行微调,降低使用成本。

2024-04-12 16:24:21 2180

原创 第二期书生浦语大模型训练营第二次作业

【代码】第二期书生浦语大模型训练营第二次作业。

2024-04-05 13:50:30 260 1

原创 人工智能矩阵之对称阵

Hermitian矩阵是复数方阵,它等于其自身的共轭转置。形式上,如果 \(\mathbf{A} = \mathbf{A}^\dagger\)(其中 \(\mathbf{A}^\dagger\) 表示 \(\mathbf{A}\) 的共轭转置),那么 \(\mathbf{A}\) 是Hermitian的。正定矩阵是一类特殊的对称矩阵。对于所有非零向量 \(\mathbf{x}\),都有 \(\mathbf{x}^T\mathbf{A}\mathbf{x} > 0\)。这意味着所有特征值都是正的。

2024-04-04 22:19:06 868 1

原创 第二期书生浦语大模型训练营第二次笔记

Lagent 是一个轻量级、开源的基于大语言模型的智能体(agent)框架,支持用户快速地将一个大语言模型转变为多种类型的智能体,并提供了一些典型工具为大语言模型赋能。它的整个框架图如下:智能体的未来巨大潜能:比尔盖茨深度文章《比尔盖茨:人工智能将彻底改变人们使用电脑的方式并颠覆软件行业》比尔盖茨:人工智能将彻底改变人们使用电脑的方式并颠覆软件行业模型部署方式与上面方法类似。

2024-04-03 14:17:24 905 1

原创 人工智能之特殊矩阵(2)

Fourier矩阵,或离散傅立叶变换矩阵(DFT矩阵),是一种用于在离散傅立叶变换中的基础矩阵。给定一个大小为 \(n\) 的Fourier矩阵 \(\mathbf{F}_n\),其元素定义如下:其中,\(\omega = e^{-2\pi i / n}\) 是 \(n\) 的一个单位根,\(i\) 是虚数单位。

2024-04-03 14:00:50 806 1

原创 一文读懂矩阵在人工智能中到底有什么用

在深入探讨人工智能之前,理解矩阵的基本概念及其在AI中的关键作用是至关重要的。矩阵在数学概念的应用远远超出了传统的数学领域,成为人工智能中不可或缺的一部分。

2024-04-03 10:18:22 4905 1

原创 人工智能之特殊矩阵(1)

Hermitian矩阵,或称自共轭矩阵,是一种特殊的复方阵,满足其自身等于其共轭转置,即对于任意Hermitian矩阵 \(\mathbf{A}\),都有:这里,\(\mathbf{A}^\dagger\) 表示 \(\mathbf{A}\) 的共轭转置——即将 \(\mathbf{A}\) 转置后再取每个元素的复共轭。对于矩阵 \(\mathbf{A} = [a_{ij}]\) 中的每个元素 \(a_{ij}\),如果 \(\mathbf{A}\) 是Hermitian的,则有:

2024-04-02 09:20:32 861 1

原创 人工智能之向量与矩阵的范数

其中 \(\|\mathbf{a}\|\) 和 \(\|\mathbf{b}\|\) 是向量的欧几里得范数,\(\theta\) 是两向量之间的夹角。如果它们方向完全相反,则内积最小。- **\(L_p\) 范数**:\(\|\mathbf{a}\|_p = (\sum_{i=1}^{n} |a_i|^p)^{1/p}\),这是一种更一般化的形式,当 \(p=2\) 时退化为欧几里得范数。其中 \(\sigma_{max}(\mathbf{A})\) 是矩阵 \(\mathbf{A}\) 的最大奇异值。

2024-04-01 15:09:39 511

原创 人工智能矩阵之性能指标

对于一个 \(n \times n\) 的方阵 \(A\),其行列式记为 \(det(A)\) 或 \(|A|\),可以递归地定义。对于最简单的情况,一个 \(1 \times 1\) 矩阵的行列式就是其唯一元素的值。对于更大的矩阵,行列式是基于矩阵中元素和它们的代数余子式的和。

2024-04-01 13:12:04 687

原创 人工智能矩阵基础知识点(2)

大小:外积的模长 \(\|\mathbf{u} \times \mathbf{v}\|\) 等于原来两个向量构成的平行四边形的面积,也可以表达为 \(\|\mathbf{u} \times \mathbf{v}\| = \|\mathbf{u}\|\|\mathbf{v}\|\sin(\theta)\),其中 \(\theta\) 是两向量之间的夹角。对于 \(uv^T\),无论 \(n\) 的大小如何,所有的列都是向量 \(u\) 的标量倍数,同样,所有的行都是向量 \(v^T\) 的标量倍数。

2024-04-01 10:27:19 644 2

原创 人工智能矩阵基础知识点(1)

定义:对于一个给定的方阵 \( A \),如果存在一个非零向量 \( v \) 和一个标量 \( \lambda \),使得 \( Av = \lambda v \),那么我们称 \( \lambda \) 是矩阵 \( A \) 的一个特征值,\( v \) 是对应于特征值 \( \lambda \) 的一个特征向量。定义:如果两个矩阵 \( A \) 和 \( B \) 满足 \( B = P^{-1}AP \),其中 \( P \) 是一个可逆矩阵,那么称 \( A \) 和 \( B \) 相似。

2024-03-31 16:25:25 1865 1

原创 第二期书生浦语大模型实战营第一次作业(大模型技术报告解读)

本报告阐述了InternLM2的训练过程,包括训练框架、预训练文本数据、预训练代码数据、预训练长文本数据和对齐数据。在创新技术上,针对强化学习后训练(RLHF)过程中遇到的偏好冲突,提出了条件在线RLHF方法,以协调不同的偏好。

2024-03-31 14:00:08 1139 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除