一.历史上的计算机:
1946年2月14日,世界上第一台电子数字计算机(ENIAC)在美国诞生。
- 第一代计算机所经历的时间为1946年至1958年,是电子管计算机时代,特点是:体积较大,运算速度较低,存储容量不大,价格昂贵,使用也不方便。
2. 第二代计算机经历的时间为1958年至1956年,是晶体管计算机时代,运算速度比第一代计算机提高近百倍,体积为原来的几十分之一,在软件方面开始使用计算机语言。
3. 第三代计算机所经历的时间为1965年至1970年,特征是以中,小规模集成电路为电子器件,出现了计算机操作系统。
4. 第四代计算机经历的时间为1970年以后采用大规模集成电路(LSI)和超大规模集成电路(VLSI)为主要电子器件制成的计算机。例如80386微处理器,。一个重要的分支是以大规模,超大规模集成电路为基础发展起来的微处理器和微型计算机。
二.什么是计算机?
一般来说,计算机可以分为两种:通用型计算机和专用型计算机。通用型计算机包括常用的台式计算机,笔记本电脑,平板电脑等。专用型计算机是为特定应用量身打造的计算机,比如智能家电的计算机,所有船舰,飞机,航天上的控制计算机等。
三.计算机的发展趋势:
互联网是全球性的网络,是一种公用信息的载体,云计算是分布式计算,并行计算,效用计算。网络存储技术,虚拟化技术等计算机和网络技术发展融合的产物。
当今计算机的发展趋势是:系统越来越大,核数越来越多:终端越来越小,越来越便捷:越来越高效能。
四.简述冯诺伊曼计算机体系结构
冯诺伊曼体系定义了计算机的组成,包括存储器,算术逻辑单元,控制单元和输入输出设备,指令和数据均采用二进制码表示,将编好的程序和原始数据事先存入存储器中,然后再启动计算机工作,程序就可运行。
五.对内存的认识,数据是如何进行存取的。
①:内存是计算机平台核心部件之一,是计算机平台中央处理器CPU对外围部件数据进行处理的重要联系及数据传输纽带。内存是相对外存而言的,功能是将存储与外存如硬盘,光盘或U盘上的软件程序或数据加载至内存中,CPU吧需要运算的数据条道内存中运算,运算完成后将结果传送,实现程序的运行及数据的处理反馈。
②:数据存取是按照优化的存取按排进行的实际的存取操作。
数据处理值得就是对数据的采集,存储,检索,加工,变换和传输。将照片,音频等信息转化为二进制的过程,是计算机对数据的采集工作;将这些数据有二进制的方式存到计算机,计算机完成了对数据的存储工作;在存入计算机的信息在提取我们感兴趣的部分,计算机对数据的检索操作;对数据进行加工,别u噪声去除,图像增强,是计算机对数据的加工操作;将关键数据进行加密操作是计算机对数据的变换操作:将这些数据传输给其他计算机是计算机的传输操作。
计算机的基础还有很多,那么接下来我们就跳过这一章,进入真正的编程之路吧——python。
因为本人最初接触的语言是python,所以将以python作为我的记录开端。
python的特点:
简单易学——丰富的库——可扩展,可嵌入,可应用——面向对象,高层——解释性——免费开源,可移植性。
1991年,第一个python编译器产生。
Windows中要使用python进行python程序开发,必须先安装python安装环境。
官网地址:python安装
点击downloads——选择python的安装版本具体可参考:https://blog.youkuaiyun.com/qq_25814003/article/details/80609729
python的数据类型:
- 数值型
- 布尔型
- 列表
- 字符串类型
- 字典
- 通常整数的表示范围-2147483648到2147483647
- python3.0以后的版本无范围限制
例如:0,100,-100
012(八进制的10)
0x14(十六进制的20)
- 操作符:+,-,*,%,(),/,//,**
- 浮点型:如5.0,1.6,2999.13
- 在python中产生随机数,首先引入random模块。
- 产生10-20的随机浮点数
import random
f = random.uniform(10,20)
print(f)
产生10-20的随机整数
import random
f = random.randint(10,20)
print(f)
- 布尔类型
b=100<101
print(b)
- 布尔型变量有两种可能值:Ture False
- 布尔比较运算:< ,> ,<= ,>= ,== ,!=
- 布尔逻辑运算:not,and,or
拓展:
由于计算机存储一般以四个字节存储,四个字节存储浮点数,也就是64位,52位表示数据,也就是53位小数精度。浮点数无法保证精确存储,无法用固定字节表示无限数字,会导致数据精度丢失,而在python中大约保证十进制的17位精度。
下面我们来解释这段话:
计算机中的101实际存储的数字为-3,这里不做过多解释。
当我们输入下面这样一段代码
print(1.2-1.0==0.2)
输出为false,why?
我们来看.:1.2在计算机中表示为1.0011001100110011.........
1.0在计算机中表示为1.0
两个做差为0.001100110011.......0011000
而0.2在计算机中表示为0.001100110011.......0011001
很显然这就是我们计算机计算结果和我们理解的数学不同的原因,是不是很容易理解呢?
今天我学到的就是这些,继续的话请点击:python1