显卡工作原理

一、视频显示流程图

1)显卡工作流程

图像或者视频数据一旦离开CPU,必须通过4个步骤,才会到达显示器:

1、从总线进入GPU(Graphics Processing Unit,图形处理器):将CPU送来的数据总线,再从总线送到GPU里面进行处理。

2、从GPU进入帧缓冲存储器(或称显存):将GPU芯片处理完的数据送到显存。

3、从显存进入视频控制器:视频控制器有可能是DAC(Digital Analog Converter,随机读写存储数—模转换器),从显存读取出数据再送到RAM DAC进行数据转换的工作(数字信号转模拟信号);但是如果是DVI接口类型的显卡,则不需要经过数字信号转模拟信号。而直接输出数字信号。

4、从视频控制器进入显示器:将转换完的模拟信号送到显示屏。

2)显卡的类型

1、集成显卡

集成的显卡一般不带有显存,而是使用系统的一部分主内存作为显存,具体的数量一般是系统根据需要自动动态调整的。显然如果使用集成显卡运行需要大量占用内存的空间,对整个系统的影响会比较明显,此外系统内存的频率通常比独立显卡的显存低很多,因此集成显卡的性能比独立显卡要逊色一些。

2、独立显卡

独立显卡,简称独显,港澳台地区称独立显示卡,是指成独立的板卡,需要插在主板的相应接口上的显卡。独立显卡分为内置独立显卡和外置显卡。独立显卡是指以独立板卡形式存在,可在具备显卡接口的主板上自由插拔的显卡。独立显卡具备单独的显存,不占用系统内存,而且技术上领先于集成显卡,能够提供更好的显示效果和运行性能。

3、核心显卡

英文原名Core graphics card,核心图形卡,意思是集成在核心中的显卡。核心显卡是新一代的智能图形核心,它整合在智能处理器当中,依托处理器强大的运算能力和智能能效调节设计,在更低功耗下实现同样出色的图形处理性能和流畅的应用体验。需要注意的是,核心显卡虽然与传统意义上的集成显卡并不相同,工作方式的不同决定了它的性能比早期的集成显卡有所提升,但是它仍然是一种集成显卡,集成在核心中的显卡。

二、关于显存

用来存储屏幕上像素的颜色值,简称帧缓冲器,俗称显存。帧缓冲器中的单元数目与显示器上的像素数目相同,单元与像素一一对应,各单元的数值决定了其对应的像素的颜色。

三、关于GPU

GPU(graphics processing unit,图形处理器),又称显示核心、视觉处理器、显示芯片或绘图芯片,是一种专门在个人计算机、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上运行绘图运算工作的微处理器。换句话说,就是把CPU的数据翻译成显示器能读懂的数据。

CPU与GPU的结构对比如下图:

CPU是一个有多种功能的优秀领导者。它的优点在于调度、管理、协调能力强,计算能力则位于其次。而GPU相当于一个接受CPU调度的“拥有大量计算能力”的员工。换言之,CPU擅长统领全局等复杂操作,GPU擅长对大数据进行简单重复操作。CPU是从事复杂脑力劳动的教授,而GPU是进行大量并行计算的体力劳动者。

四、GPU加速

GPU加速计算是指同时利用图形处理器(GPU)和CPU,加快科学、分析、工程、消费和企业应用程序的运行速度。

GPU加速计算可以提供非凡的应用程序性能,能将应用程序计算密集部分的工作负载转移到GPU,同时仍由CPU运行其余程序代码。从用户的角度来看,应用程序的运行速度明显加快。

理解GPU和CPU之间区别的一种简单方式是比较它们如何处理任务。CPU由专为顺序串行处理而优化的几个核心组成,而GPU则拥有一个由数以千计的更小、更高效的核心(专为同时处理多重任务而设计)组成的大规模并行计算架构。

五、视频渲染器

百度百科的解释是:视频渲染器,Video Renderer是接收CPU的RGB/YUV裸数据,然后在显示器上显示的Filter。

个人理解,是运行在显卡上的一个驱动程序。完成将CPU发送视频数据显示到显示器的一个软件。使用potplay可以查看系统支持的选择渲染器种类。(没有理解透彻,需要继续研究)

SDL是一个封装库,对opengl/directD3D的封装。SDL使用统一的接口,在编译的时候,系统自动匹配最优的渲染方案。

opengl/directD3D是3D规范,各个GPU厂商需要按照这个3D规范实现接口调用,便于业务层使用。

六、备注

要是有独立显卡的主机后面有两个接显示器的口,

编号1口:使用的是Intel的集成显卡。

编号2口:是AMD或者英伟达的独立显卡。

只有当显示器线接到指定显卡后,才会使用该显卡。

 

 

 

### 张量显卡工作原理及其在深度学习中的应用 张量显卡(Tensor Core GPU)是一种专为加速人工智能训练和推理设计的硬件单元。它通过优化矩阵运算来显著提升深度学习模型的计算效率[^1]。 #### 什么是张量核心? 张量核心是 NVIDIA 显卡中的一种特殊处理单元,旨在高效执行大规模浮点数矩阵乘法操作。这些操作构成了现代神经网络的核心部分,尤其是在卷积神经网络 (CNN) 和循环神经网络 (RNN) 中。张量核心能够在一个周期内完成多个混合精度矩阵乘加运算,从而大幅提高吞吐量并降低延迟[^4]。 #### 混合精度计算 为了进一步增强性能表现,张量核心支持一种称为 **混合精度** 的技术。这意味着它们可以利用较低位宽的数据类型(如 FP16 或 BFLOAT16),同时自动转换回较高精度的结果以保持准确性。这种方法不仅减少了内存带宽需求还加快了整体流程速度[^3]。 #### 实际应用场景 当涉及到具体实现时,在 PyTorch 这样的框架下可以通过调用 `torch.cuda` API 来检测当前使用的设备名称以及配置多GPU环境下的优先级顺序[^5]: ```python import torch print(torch.cuda.get_device_name(0)) # 获取第一个可用GPU的名字 ``` 对于拥有多个NVIDIA GPUs的情况,则可通过修改环境变量 `"CUDA_VISIBLE_DEVICES"` 来指定哪些物理设备参与任务分配;或者直接命令行定义可见范围再运行脚本文件: ```bash export CUDA_VISIBLE_DEVICES="2" python train.py ``` 另外值得注意的是,随着显存容量增加,可处理数据集规模也会相应扩大,这对于计算机视觉领域尤为重要——通常推荐至少配备8GB以上显存才能满足复杂模型的需求[^2]。 综上所述,张量显卡凭借其独特的架构优势成为推动AI发展的关键技术之一,并且在未来还将继续发挥重要作用。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值