人工智能 — 简介

本文概述了人工智能的历史发展,从早期的达特茅斯会议到深度学习的兴起,强调了数据、算法和算力作为核心要素。介绍了机器学习、深度学习、神经网络和计算机视觉中的关键概念和技术应用,如深度神经网络的多层结构和CNN在图像处理中的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、简介

人工智能是通过机器来模拟人类认知能力的技术。

二、发展历程

1、1956年:达特茅斯会议标志着人工智能的诞生。

2、1957年:罗森布拉特发明 Perceptron,推动神经网络研究。

3、1970年:计算机能力限制导致 AI 进入低谷,无法完成大规模数据训练。

4、1982年:霍普菲尔德神经网络提出,引入相联存储机制。

5、1986年:BP 算法使大规模神经网络训练成为可能,AI 迎来第二个黄金期。

6、1990年:DARPA 投资失败,AI 再次陷入低谷。

7、2006年:Hinton 提出深度学习,为人工智能带来突破性进展。

8、2013年:深度学习在语音和视觉识别上成功,AI 进入感知智能时代。

三、核心要素

1、数据

2、算法

3、算力

四、算法

1、概念

当你交给计算机一个任务的时候,不但要告诉它做什么,还要告诉它怎么做。 关于“怎么做”的一系列指令就叫做算法

2、分类

  • 传统算法:遍历法
  • 更聪明的算法:梯度下降法
  • 更复杂的算法:机器学习

五、算力

1、概念

指的是计算机系统或设备执行特定任务的处理能力,通常用于衡量计算性能和速度。

2、分类

  • CPU(中央处理器)

类似于计算机的大脑,擅长执行各种任务,如运算、逻辑判断等。适用于处理顺序性和复杂性较高的任务,比如启动应用程序、运行操作系统等。

  • GPU(图形处理器)

像一支强大的工具,专注于处理图形和同时进行大量相似计算。适用于处理图形、视频、游戏和深度学习等需要大规模并行计算的任务。

  • FPGA(可编程门阵列)

就像一块多功能的拼图板,可以按需重新组合自己的硬件结构。适用于需要定制化硬件加速的特定任务,如信号处理、加密等。

  • 分布式运算

像一支庞大的团队,各自分工合作完成任务。多台计算机协同工作,加快处理速度,适用于大数据处理和复杂计算,就像把工作分给多个人来一起完成一样。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值