数学术语——指数的发展历程

本文概述了指数的概念从古希腊时期到18世纪的发展历程,涉及欧几里得、阿基米德、尼古拉·奥雷姆、尼古拉斯·楚克特等数学家的重要贡献,以及对数的引入和负指数、分数指数的发现。重点介绍了约翰·纳皮尔和亨利·布里格斯在对数计算上的工作,以及艾萨克·牛顿和莱昂哈德·欧拉对指数理论的进一步发展。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

指数的发展历程

指数(exponents)的历史可以追溯到许多世纪以前,欧几里德(Euclid)被认为是第一个已知的指数用法。他用“幂(power)”这个词来表示我们今天所知的一个数自乘的次数(注:底数连同其右上角的指数一起的整体形式称为“幂”)。古希腊数学家使用幂,而许多其他数学家在对指数的使用有了更多了解后,增加了对指数的使用。 阿基米德(Archimedes)推广了同样的幂的思想,并证明了指数定律 10^x.10^y=10^{x+y} ,这对操作10的幂是必要的,后来伊斯兰(Islamic)黄金时代的数学家在他们的代数工作中使用了2和3的幂。在下面的介绍中,您将看到,从14世纪到今天指数的使用,有许多其他数学家对指数发展做出了贡献。

“exponent(指数)”这个词,始于1706年,来自指丁语“exponentem”(词义“put forth(提出)”),主格形式为“exponens”,“exponere ”的现在分词形式。最早在数学中使用是指用于放置在另一个符号上方偏右侧的数学符号(据说由笛卡尔在代数中引入),以表示基数的幂次方

目录

14世纪

1. Nicole Oresme (1323-1382)

15世纪

1. Nicolas Chuquet (1445-1448)

16 世纪

1. Michael Stifel (1487-1567)

2. Robert Recorde (1512-1558)

17 世纪

1. John Napier (1540-1617) 和 Henry Briggs (1561-1630)

2. Pierre Hérigone (AKA Herigonus)(1580-1643)

3. Réne Descartes (1596-1650)

4. Isaac Newton (1643-1727)

18 世纪

1. Leonhard Euler(1707年4月15日~1783年9月18日)


14世纪

1. Nicole Oresme (1323-1382)

他是经济学家、数学家、物理学家、天文学家、哲学家、心理学家和音乐学家。

他对指数所做的主要贡献有:

(1) 采用数表示幂,虽然他没有采用自乘数的形式(raised number),但这已经是一大进步;

(2) 首先使用分数和非比数(irrational)的幂来探索他的音乐知识;

(3) 他对非比数幂的研究发现了“泛音(overstones)”和“偏音(partial stones)”。早在Marin Mersenne之前,他就意识到不同的音调具有不同的振动频率(vibration frequencies)。

 

--------------------------- Nicole Oresme画像--------------------------------

15世纪

1. Nicolas Chuquet (1445-1448)

欧洲数学家,他对指数的贡献包括:

(1) 他于1484发表了他最著名的著作:<<Le Triparty en la Science des Nombres>>(算术三篇);

(2) 被认为发明了表示根的符号;

(3) 首次使用自乘数表示幂;

(4) 首次使用负数表示幂。

 

--------------------------- Nicolas Chuquet画像--------------------------------

16 世纪

1. Michael Stifel (1487-1567)

德国数学家,他对对数的主要贡献包括:

(1) 引入术语指数(exponent);

(2) 他的带有指数的作品仅包括以2为底的数,他也使用负指数,因此,他发现了等比数列...-1/8, -1/4, -1/2, 1, 2, 4, 8 ...。

 

--------------------------- Michael Stifel画像-------------------------------

2. Robert Recorde (1512-1558)

   国王的医生和数学家,他对指数的主要贡献包括:

(1) 创建了等号(=);

(2) 使用了我们今天仍旧在使用的术语平方和立方,但随后他又发明了他自己的术语高次幂(higher power);

(3) 创造了术语“zenzizenzizenzicas”来表示一个数自乘8次。

 

--------------------------- Robert Recorde画像--------------------------------

17 世纪

1. John Napier (1540-1617) 和 Henry Briggs (1561-1630)

Napier是苏格兰数学家、物理学家、天文学家;Briggs是英国数学家;他们两人对指数的主要贡献包括:

他们合作创建了一系列对数,将所有数表示为底数和指数的幂的形式(数的自乘形式)。 一个例子是 100 可以写成 log(2),因为 10^2 是100。或者 1,074 的对数等于 3.0311 因为 1,704 = 10^{3.0311 } 。

 

--------------------------- John Napier画像--------------------------------

 

--------------------------- Henry Briggs画像--------------------------------

2. Pierre Hérigone (AKA Herigonus)(1580-1643)

Pierre Hérigone是法国数学家和天文学家,他对指数的主要贡献为:在他知道指数符号之前,Hérigone将术语写为 a2、a3,表示相同的变量a自乘前面的第1个、第2个幂后得到的结果。

 

--------------------------- Pierre Hérigone画像--------------------------------

3. Réne Descartes (1596-1650)

Réne Descartes是法国哲学家,数学家和科学家,对他指数的主要贡献包括:

推广使用上标(superscript)来显示指数,就像我们今天所知道的那样“自乘”。

 

--------------------------- Réne Descartes画像--------------------------------

4. Isaac Newton (1643-1727)

Isaac Newton是英国数学家,天文学家和科学家,他对指数的主要贡献包括:

(1) 首次于1676年引入分数指数;

(2) 这些分数指数以及坐标几何有助于求解丢番图(Diophantine)方程;

(1) 他也于1676年开始使用负指数。

18 世纪

1. Leonhard Euler(1707年4月15日~1783年9月18日)

Euler对指数的主要贡献包括:

(1) 他也于1748年引入了可变指数;

(2) 建立今天使用的对数记法,并将指数函数与对数函数关联起来。

<think>嗯,用户想了解深度学习模型的发展历程和里程碑。首先,我需要回顾一下深度学习的关键历史节点。记得早期的感知机模型,那是Frank Rosenblatt在1958年提出的,算是神经网络的前身。不过那时候的感知机只能处理线性可分的问题,后来Minsky指出了它的局限性,导致研究一度停滞。 然后应该是反向传播算法的出现,1986年由Rumelhart等人提出,这解决了多层网络训练的问题,但受限于当时的计算能力和数据量,应用并不广泛。接下来是支持向量机(SVM)在90年代的流行,可能让神经网络研究进入低潮,不过LeCun在1998年提出的LeNet-5用于手写数字识别,算是一个小突破,但影响有限。 真正的转折点应该是2012年的AlexNet,由Hinton的学生Alex Krizhevsky等人提出,他们在ImageNet比赛中大幅领先,证明了深度学习的潜力。这之后深度学习快速发展,出现了VGG、ResNet等模型,解决梯度消失问题。再后来,注意力机制和Transformer架构在自然语言处理领域大放异彩,比如BERT和GPT系列模型,这些都属于预训练大模型的范畴。 用户提供的引用中提到RAG大模型,说明现在的大模型不仅规模大,还能处理更复杂任务。需要结合这些引用中的信息,比如引用[1]提到RAG的预训练和海量数据,引用[3]详细讲了AlexNet的意义。此外,引用[2]提到数据、算力和算法的共同推动,这也是发展历程的重要因素。 在组织回答时,应该按时间顺序,分阶段介绍每个里程碑,并连接它们的影响。还要注意用户提到的格式要求,比如数学公式用$...$,独立公式用$$...$$,不过这里可能用不上太多数学,但如果有的话需要正确应用。最后生成相关问题,要确保问题与内容相关,帮助用户深入理解。 需要检查是否有遗漏的重要模型,比如LSTM、GAN,或者最近的扩散模型。不过用户的问题集中在发展历程和里程碑,可能不需要太详细的技术细节,但关键节点必须涵盖。同时,确保引用正确,每个引用对应的内容要自然插入,比如在讲AlexNet时引用[3],讲大模型时引用[1],整体趋势时引用[2]。 最后,回答要结构清晰,分点叙述,可能使用时间线或阶段划分,让用户容易理解。还要注意使用中文,避免专业术语过多,保持口语化但准确。</think>### 深度学习模型的发展历程与里程碑 #### 1. **早期基础(1950s-1980s)** - **感知机模型(1958)**:Frank Rosenblatt提出首个神经网络模型——感知机,用于二元分类任务。其局限性(如无法解决异或问题)导致研究陷入低谷[^2]。 - **反向传播算法(1986)**:Rumelhart等人提出反向传播算法,为多层神经网络的训练提供了数学基础,但受限于计算能力和数据量,未能广泛应用。 #### 2. **蛰伏与突破(1990s-2000s)** - **支持向量机(SVM)的兴起**:传统机器学习方法(如SVM)主导,神经网络研究进入低潮。 - **LeNet-5(1998)**:Yann LeCun提出用于手写数字识别的卷积神经网络(CNN),但因硬件限制未引起广泛关注[^3]。 #### 3. **深度学习革命(2010s至今)** - **AlexNet(2012)**:在ImageNet竞赛中以显著优势夺冠,首次证明深度学习在图像识别的潜力。其使用ReLU激活函数、Dropout和GPU加速训练,成为现代深度学习的起点[^3]。 $$ \text{ReLU}(x) = \max(0, x) $$ - **VGGNet与ResNet(2014-2015)**:VGG通过堆叠3x3卷积层统一架构;ResNet引入残差连接,解决深层网络梯度消失问题,推动模型深度突破百层。 - **注意力机制与Transformer(2017)**:Vaswani等人提出Transformer架构,彻底改变自然语言处理(NLP)领域。其自注意力机制可并行处理序列数据,为BERT、GPT等模型奠定基础。 - **预训练大模型(2018-至今)**:如BERT、GPT系列、RAG等模型通过海量数据预训练,实现多任务泛化能力。RAG大模型结合检索与生成,标志着模型从“理解”向“知识整合”演进[^1]。 #### 4. **当前趋势与挑战** - **多模态与跨领域应用**:如CLIP(图文联合模型)、DALL-E(图像生成)探索多模态学习。 - **算力与数据依赖**:模型规模指数级增长(如GPT-3参数达1750亿),依赖高性能计算与大数据,引发对能耗和伦理的反思。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值