自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

都给我的博客

一个硬件工程师回味他的工作

  • 博客(40)
  • 问答 (2)
  • 收藏
  • 关注

原创 数据中心网络架构的“南北向”和“东西向”

随着云计算、大数据、AI的发展,数据中心的流量结构已从“南北向主导”转向“东西向主导”(部分大型数据中心东西向流量占比超70%)。网络设计:南北向需侧重“安全防护”和“流量分发”,东西向需侧重“带宽扩容”和“低延迟互联”;资源分配:避免将有限带宽浪费在非关键路径(如为东西向流量预留更多100G端口,而非单纯扩容南北向出口);故障排查:快速定位问题(如用户访问慢→优先排查南北向LB/防火墙,内部服务超时→优先排查东西向交换机/链路)。

2025-09-24 16:24:45 1022

原创 PCIe Fabric拓扑应用场景

例如,腾讯云的结构化拓扑设计中,计算节点通过PCIe交换机直接调取数据到GPU处理,避免CPU参与数据搬运,显著提升训练效率。此外,多GPU卡通过NVLink桥接后,可通过PCIe Fabric实现跨卡通信,形成共享内存配置,满足高并发计算需求。PCIe Fabric拓扑凭借其灵活性和可扩展性,正成为现代计算系统的核心架构,从数据中心到边缘设备,覆盖了从高性能计算到工业控制的广泛场景。随着PCIe 6.0及CXL技术的普及,其在异构计算、内存池化等领域的应用将进一步深化。

2025-09-24 16:12:54 462

原创 DPU(数据处理单元)架构中,SoC(系统级芯片)与FPGA(现场可编程门阵列)之间的数据交互

摘要:DPU架构中SoC与FPGA的数据交互主要分为四类:1)控制指令与状态信息,通过低延迟通道实现微秒级响应;2)批量数据处理,利用高速接口实现100-400Gbps传输;3)内存协同访问,采用缓存一致性协议达成纳秒级同步;4)硬件任务元数据,通过专用队列传递结构化信息。关键技术挑战包括延迟优化(2.5D/3D封装)、带宽提升(协议优化)和一致性保障(CXL等新协议)。当前CXL互联正逐步替代PCIe,推动异构计算效能提升。(150字)

2025-08-05 16:54:37 864

原创 NvLINK、RoCE和PCIe Switch在涉及PCIe Root Complex(RC)事务处理方面的对比分析

本文对比分析了NvLINK、RoCE和PCIe Switch在PCIe Root Complex(RC)事务处理中的差异。NvLINK通过专用协议和NVSwitch实现GPU间直连通信,绕过RC数据传输;RoCE完全依赖RC处理DMA和中断,存在性能瓶颈;PCIe Switch作为扩展器需RC参与路由。性能方面,NvLINK延迟最低(200-300ns),RoCE受限于RC处理(1-2μs)。设计建议:GPU密集型应用优先选用NvLINK,RoCE需优化RC配置,避免高吞吐设备与网卡共用PCIe Switc

2025-08-04 20:04:25 646

原创 Root Complex(RC) 是连接处理器、内存子系统与PCIe设备的核心枢纽

摘要:Root Complex(RC)是PCIe架构的核心枢纽,负责连接CPU、内存与PCIe设备。作为拓扑根节点,RC管理总线枚举、地址映射和中断路由,支持虚拟化(SR-IOV)和错误处理。现代RC集成于CPU/芯片组,优化I/O效率,尤其在高吞吐场景中至关重要。其功能包括配置空间管理、DMA地址转换及电源控制,是确保系统性能的关键组件。(150字)

2025-08-04 10:51:53 906

原创 PCIe Switch是否需要通过Root Complex进行通信或配置

PCIe Switch与Root Complex的通信与配置关系 在PCIe架构中,Root Complex(RC)是核心组件,负责连接CPU、内存和PCIe设备。PCIe Switch用于扩展链路,允许多个设备通过单一RC端口连接。 配置必须通过RC:PCIe Switch的配置空间(端口映射、地址分配等)需由RC通过配置事务设置,RC是唯一入口点。 数据传输可能绕过RC:Switch可自主转发下游设备间的通信(如Endpoint到Endpoint),但设备与系统交互(如DMA)仍需RC参与。 结论:PC

2025-08-04 10:49:04 748

原创 可计算存储(Computational Storage)与DPU(Data Processing Unit)的技术特点对比及实际应用场景分析

摘要: 可计算存储与DPU是两种面向不同场景的加速技术。可计算存储通过在存储设备(如SSD)中集成计算单元,实现近数据处理(如数据库谓词下推、边缘AI推理),减少数据搬移;DPU则通过专用SoC卸载网络/存储协议(如RDMA、加密),提升主机资源利用率。两者可协同应用,例如边缘AI场景中,可计算存储预处理数据,DPU加速安全传输。选型需根据需求:实时视频分析适合可计算存储,云原生微服务推荐DPU,超大规模存储可混合部署。未来可计算存储将更紧密集成数据库生态,DPU则向存算一体发展。主要挑战包括生态碎片化(可

2025-07-31 17:43:38 1495

原创 零信任网络概念及在网络安全中的应用

零信任网络(Zero Trust Network)是一种颠覆传统边界安全的架构理念,其核心是**“永不信任,始终验证”**(Never Trust, Always Verify)。它假设网络内外均存在威胁,需对所有访问请求进行动态验证和最小权限控制。的动态防护机制,在日益复杂的网络威胁中构建内生安全能力。零信任不仅是技术升级,更是安全范式的根本变革。

2025-07-31 16:55:48 506

原创 OCP网卡、OVS网卡和DPU(数据处理单元)三类技术方案

功能边界OCP网卡是“硬件标准化工具”,解决数据中心硬件兼容与扩展问题;OVS网卡是“网络虚拟化加速器”,优化软件定义网络的性能瓶颈;DPU是“基础设施重构者”,通过卸载和隔离重新定义数据中心架构。技术演进路径OCP代表硬件开放化趋势,通过统一标准降低生态协作成本;OVS网卡体现软硬协同的深度优化,是SDN落地的关键使能技术;DPU则是数据中心架构从“以CPU为中心”向“以数据为中心”转型的核心载体。典型案例OCP网卡:Facebook(Meta)数据中心的大规模部署;

2025-07-31 16:37:55 929

原创 AI服务器中,EEPROM有哪些部件使用,需要存储哪些信息?

摘要:AI服务器EEPROM存储关键硬件配置数据,主要包括:1)主板BMC存储FRU信息、IPMI配置等;2)GPU卡存储vBIOS参数、功耗策略;3)RAID控制器记录拓扑映射;4)智能网卡保存加密密钥和RDMA配置;5)电源模块存储故障日志。特殊应用涉及液冷系统参数、FPGA加密密钥和SSD磨损数据。技术特性显示,不同组件EEPROM容量(16KB-256KB)和耐久性(10万-100万次)各异,现代服务器采用20Mbps SPI接口提升传输效率。

2025-07-30 16:15:34 463

原创 LAN over USB(USB网络共享)在BMC、BIOS和OS层面的应用

BMC、BIOS和OS在USB网络共享应用上的核心区别:BMC层面通过IPMI协议实现独立于主系统的带外管理,支持远程KVM和硬件监控;BIOS层面聚焦PXE引导等启动阶段网络功能,依赖固件配置;OS层面则通过驱动实现日常网络共享和多网卡扩展。三者分别对应硬件管理、启动支持和应用连接三大场景,形成从底层到上层的完整技术栈。

2025-07-30 11:27:24 1516

原创 PCIe本地时钟方案与在线时钟方案的区别及设计关键点

PCIe时钟方案设计关键点分析 PCIe设计存在本地时钟与在线时钟两种方案。本地时钟采用独立晶振,适用于终端设备,对抖动要求更严格(Gen3<0.7ps RMS),需优化布局布线;在线时钟通过REFCLK±传输,适用于插卡设备,需重点处理时钟路径完整性和连接器阻抗匹配。两者均需保证100Ω差分阻抗,严格等长布线(误差<5mil),并采取电源滤波、EMI控制等措施。本地时钟方案晶振应靠近金手指,在线时钟需匹配数据线长度(±20mil)。验证时需分别关注眼图上升时间和抖动分量,确保阻抗波动<±

2025-07-30 10:40:34 603

原创 Scale Up 和 Scale Out 的区别及应用场景

Scale Up 和 Scale Out 的本质区别在于扩展维度:Scale Up 是垂直强化单体资源,适合资源集中型场景;Scale Out 是水平添加资源,适合分布式和高可用需求。选择时需权衡成本、复杂性和性能目标。在云计算时代,Scale Out 更流行,但Scale Up 在特定场景仍有价值。

2025-07-30 10:37:07 2472

原创 服务器中涉及节流(Throttle)的硬件组件及其应用注意事项

本文探讨了云服务器环境中优化硬件配置以避免节流问题的策略。首先分析了云环境特有的节流风险(多租户竞争、虚拟化开销、突发负载),并提出了针对性优化方案。核心硬件配置优化包括:选择低TDP CPU型号、启用智能频率提升、配置SSD散热方案、使用智能网卡降低CPU负担等。同时构建了云平台级防御体系,采用温度感知调度和功耗预算池机制。最后提出验证方法,建议通过压力测试建立调优循环,并平衡成本与性能。合理的优化可显著降低节流事件,延长硬件寿命。

2025-07-29 14:14:21 949

原创 服务器中涉及节流(Throttle)的硬件组件及其应用注意事项

摘要:CXL(Compute Express Link)是一种基于PCIe的高速互连标准协议,旨在解决CPU、内存和加速器间的数据传输瓶颈。核心协议包括CXL.io(基础通信)、CXL.cache(缓存一致性访问)和CXL.mem(内存共享)。设备分为三类(Type 1-3),支持不同应用场景。版本从1.0演进至3.1,带宽提升至64 GT/s,支持复杂拓扑和内存池化。CXL在AI训练、数据中心资源优化等方面优势显著,相比PCIe、NVLink等技术具有更好的通用性和内存管理能力。由Intel、AMD等厂商

2025-07-29 13:53:39 954

原创 MRDIMM对服务器总体拥有成本(TCO)影响的系统性分析

MRDIMM通过带宽翻倍容量提升和能效优化三重机制,在硬件溢价可控的前提下,显著降低电力与空间成本,并提升任务处理效率。其TCO优势在大型数据中心和AI场景中尤为突出,5年期综合成本降幅可达20%+。企业需结合负载特征(如引用[3]的业务需求分析)选择配置,最大化投资回报。

2025-07-25 15:45:03 1210

原创 MRDIMM 概述

MRDIMM(Multiplexer Rank DIMM)是一种新型服务器内存技术,旨在通过创新架构提升内存带宽和性能,特别适用于高性能计算(HPC)和人工智能(AI)等数据密集型应用。它基于英特尔MCR技术(Multiplexer Combined Rank),通过数据缓冲器设计实现并行数据传输,显著提高效率。以下我将逐步介绍MRDIMM的基本参数、主要生产厂家、关键技术变更点及新增应用场景,内容基于可靠技术资料和行业动态。MRDIMM通过创新数据缓冲器设计,实现了速率提升(8800MT/s。

2025-07-25 15:38:38 1575

原创 DPU 的基本运算单元是LUT吗?

LUT 在 DPU 中仅作为辅助单元存在,主要用于特定场景的快速查值(如网络路由表、存储元数据缓存),可见 DPU 更接近 CPU/GPU 的通用计算范式,而非 FPGA 的 LUT 计算模式。若用 LUT 实现纠删码计算(需矩阵乘加),需。

2025-07-23 17:16:36 570

原创 【服务器】 MCTP Over PCIe 的内容、用途、工作原理及硬件设计注意事项

MCTP Over PCIe 是一种高效的系统管理协议,通过PCIe实现设备监控与控制。其用途集中于简化硬件管理,工作原理基于协议绑定和VDM消息传递,硬件设计需注重PCIe拓扑优化和错误处理。正确实施可提升系统可维护性和性能。

2025-07-23 15:31:36 2051

原创 OCP NIC 3.0 Ethernet的multiroot complex

【代码】OCP NIC 3.0 Ethernet的multiroot complex。

2025-07-23 14:46:46 544

原创 OCP NIC 3.0 Ethernet的multiroot complex和multi host complex的区别

注:OCP NIC 3.0允许网卡同时支持两种模式,但需硬件设计时明确拓扑约束。在OCP NIC 3.0 Ethernet规范中,是两种不同的多主机连接架构,核心区别在于。

2025-07-23 14:46:12 621

原创 NearStack高性能互连解决方案

直连芯片设计‌:通过将连接器直接集成在芯片基板上,实现ASIC封装的“连接器化”,简化了传统PCB设计‌。高速传输‌:支持PCIe Gen-5 32Gbps数据传输速率,并兼容56Gbps PAM-4信号(100Ω阻抗版本)‌。端接优化‌:采用直连触点端接(Twinax焊接),无需插卡或手工焊接,提升制造效率与信号完整性‌。机械设计‌:提供直角(20.50mm间距)和斜角出口(16.00mm间距)选项,后者适合高密度布局‌;集成金属闩锁与柔性接触接口,增强连接稳定性‌。

2025-07-23 11:07:24 652

原创 【服务器】常用PCIe 5.0 Retimer芯片厂家及型号

采用标准BGA封装,适用于Riser卡、主板及NVMe背板,可与Switchtec PCIe交换机协同工作。:PCIe 5.0 Retimer与Redriver不可混用——Retimer重建信号时钟,适用于>10英寸的长距传输;采用354-ball BGA封装,集成自适应CTLE/DFE均衡技术(36dB损耗补偿),适用于服务器、存储设备及高性能工作站。PCIe 5.0 Retimer芯片能够有效补偿信道损耗、消除信号抖动,显著提升信号完整性并延长高速信号传输距离。

2025-07-23 10:08:10 2023

原创 【服务器】 BMC PORT 80 单板链路实现原理、常用功能及注意事项

摘要:BMC(基板管理控制器)通过监控x86主板上的PORT 80h端口,实时捕获CPU写入的POST代码,实现服务器启动诊断功能。BMC利用LPC/SMBus总线链路独立获取POST数据,并通过IPMI协议远程传输。该功能支持启动错误诊断、远程监控和日志分析,但需注意硬件兼容性、安全风险及POST代码的厂商差异。使用时应确保BMC固件更新和链路配置正确,以保障监控可靠性和数据安全。

2025-07-23 09:59:33 978

原创 CXL(Compute Express Link)相关知识的系统梳理与总结

摘要:CXL(Compute Express Link)是一种基于PCIe的高速互连标准协议,旨在解决CPU、内存和加速器间的数据传输瓶颈。核心协议包括CXL.io(基础通信)、CXL.cache(缓存一致性访问)和CXL.mem(内存共享)。设备分为三类(Type 1-3),支持不同应用场景。版本从1.0演进至3.1,带宽提升至64 GT/s,支持复杂拓扑和内存池化。CXL在AI训练、数据中心资源优化等方面优势显著,相比PCIe、NVLink等技术具有更好的通用性和内存管理能力。由Intel、AMD等厂商

2025-07-20 16:39:50 1218

原创 服务器制造业L1-L12的分级体系

在L11基础上扩展至多机架级别,集成集群管理、云操作系统(如OpenStack)等软件,提供完整的验证和优化服务。此阶段由ODM厂商提供“裸机服务器”(缺少CPU、内存等组件),供后续集成商配置。多台服务器节点组装至机架,完成网络布线(含交换机)、机架级系统测试及软件加载(如操作系统)。将电源单元(PSU)、扁平电缆、背板等作为分散的零部件套件或袋装发货。全系统装配、软硬件测试,集成操作系统及文档,交付即用型服务器解决方案。将GPU、网卡等扩展卡集成到裸机服务器中,并具备测试能力。2. L2(零件子装配)

2025-07-12 15:27:50 697

原创 emmc读写测试命令

摘要:eMMC是嵌入式系统中常用的存储解决方案。测试其性能可使用多种命令行工具:1)dd命令用于基本读写测试,通过指定块大小和直接I/O模式测量速度;2)hdparm工具可测试缓存读取性能;3)fio工具提供更详细的I/O测试,支持自定义块大小、数据量和读写模式,生成全面性能报告。这些方法能有效评估eMMC的读写速度、稳定性等关键指标。 (字数:150)

2025-06-07 11:14:03 991

原创 USB Type-C接口引脚分类

USB Type-C接口引脚详解。

2025-06-04 22:07:23 515

原创 PCIe总线的吞吐量/速率/带宽公式计算

例如,PCIe 2.0协议支持5.0 GT/s,每个Lane上每秒传输5G个bit。然而,并不是每个Lane都支持5Gbps的速率,因为PCIe 2.0采用的是8b/10b编码方案。这意味着每传输8个bit需要发送10个bit。因此,PCIe 2.0协议的每个Lane支持的速率为 5 GT/s * 8 / 10 = 4 Gbps = 500 MB/s。举个例子,对于一个PCIe 2.0 x8通道,可用带宽为 4 Gbps * 8 = 32 Gbps = 4 GB/s。

2025-06-04 22:02:45 677

原创 介绍服务器主板POWER ON的几个关键步骤和服务器主板上电的硬件设计要点

VAUX→VDDR→VCore→VIOVAUX​→VDDR​→VCore​→VIO​

2025-05-09 23:15:42 621

原创 【服务器】详细介绍服务器上电的关键几个阶段并分析上电失败的可能问题点

一、服务器上电关键阶段解析。

2025-05-09 23:14:44 1095

原创 详细介绍Intel CPU平台使用的GTL电平接口,并预测其未来应用方向

好的,我现在需要详细介绍Intel CPU平台使用的GTL电平接口,并预测其未来应用方向。首先,我应该先回顾一下GTL的基本概念和技术特点,确保自己理解正确。GTL全称是Gunning Transceiver Logic,是Intel在90年代开发的一种高速总线接口标准。我记得它主要用于处理器与芯片组之间的通信,比如前端总线(FSB)。GTL的主要特点包括低电压摆幅,大约在1V左右,这样可以降低功耗和信号延迟,适合高频操作。

2025-03-05 11:31:42 1675

原创 【半导体】半导体芯片行业工艺中的英文术语

Residue( unknow ) 无法定义之残留。Educt of Phosphorous 磷析出。Flow type particle 扬起状尘埃。Residue( PHOTO ) 黄光光阻残留。Poor planization 平坦化不良。PR Non-uniform 光阻厚度不均匀。Residue( SPUT ) 金属溅镀残留。Residure ( ETCH) 蚀刻残留。Non-uniform 颜色 / 线不均匀。Nitride haze 氮化硅表面雾状。Poor Coating 光阻涂布不良。

2023-12-11 18:37:26 1172 1

原创 硬件工程师进阶2,关于TVS、二极管和磁珠器件选型的三个案例分析

TVS管的漏电流,二极管的漏电流和磁珠的阻抗曲线你都认真看过吗?

2023-11-12 17:28:52 547 1

原创 每天学点硬件 1.22 TRENCH PLANAR MOSFET

每天学点硬件 1.22 TRENCH PLANAR MOSFET昨天我们学习了特殊的两种二极管;肖特基二极管,使用金属替代P结快恢复二极管,增加I层,实质为PIN结以上两种二极管通过特殊工艺实现了快恢复的性能,有很好的应用,那么我们惯常熟悉的MOSFET有哪些特殊工艺的产品呢?trenchplanar

2022-01-23 18:44:08 1928

原创 红外补光 vs白光补光

安防摄像机什么时候用红外灯补光?什么时候用白光灯补光?一、根据室内和室外区分室内一般用红外灯,室内场景下距离近,隐蔽性高,不影响正常生活。室外一般用白光灯,可以采用较大功率补光。也不绝对,在走廊内,也经常会有白光灯的应用。二、根据距离远近区分同等功率下,红外灯补光距离远,白光灯补光距离近,需要监控的范围小的情况下使用白光灯。三、根据需求的图像区分红外灯仅能提供黑白图像,需要全彩图像时必须采用白光补光灯四、一些特殊场景以上三种方式主要用来说明区别,实际场景应用综合多方面考虑;白光灯可以作为

2022-01-18 18:28:05 6175

原创 关于CIS你应当知道的

像元,像素,及靶面FSI BSIRS GSHS VSLVDS MIPICRA构成color filter晶元信号采集及转换原理

2022-01-15 12:58:05 200

原创 关于PHY芯片你应当知道的知识

组成复位晶振电源数据信号和控制信号loopbackinternalexternalEMC环路 从MDI到MAC协议特指百兆编码模式信号测试眼图上升下降性能测试打流 perf

2022-01-15 12:54:40 551

原创 关于功能芯片的应用

为了实现一个能够跑起来的系统,我们知道如下四个元素是必须的复位晶振电源数据信号和控制信号我们可以简单举个例子,比如PHY DDR CIS的四种信号分别如下表格所示那么我工作中如果遇到电路调试不起来的时候可以分别从这四个层面去定位和解决...

2022-01-15 12:47:06 212

原创 硬件设计工程师进阶之路

适用于工作5年+的硬件开发工程师;硬件开发工程师进阶之路门级原理协议精通信号完整性能够掌握地互联设计对层叠,参考,过孔的认识门级原理能够从OD门,OC门的意识出发,知道芯片上下拉,驱动能力源端电阻。互联相关互联只是连线是入门级的认知,如果你希望进阶应该了解以下知识层叠知识层之间的厚度不同,最中间两层的厚度明显高于其他层间地,即是参考。回流的最短路径,电源过孔不要在周围打信号过孔,避免成为回流路径。换层要跟随换参考过孔伴随地孔。过孔,是一段走线,通孔情况下就等效于

2022-01-15 12:33:20 814

AHB VS AXI协议对比分析

AHB 系统总线 (Advanced High-performance Bus) AXI 接口规范 (Advanced eXtensible Interface) AHB 一般作为高性能系统的骨干总线,用 来连接高时钟频率和高吞吐量的系统设 备,如 CPU 、片上存储器、DMA 和 DSP 等,AHB 总线适合于嵌入式处理器与高性 能外围设备、片内存储器及接口功能单 元的连接。它支持多总线主设备、多总 线从设备,提供高带宽工作 AXI 是新一代 AMBA 接口,它面向更高性 能、更高时钟频率的系统设计,增添了 许多新特性使得它可以支持高速深亚 微米互连。 AHB 的主要特性: 支持多个总线主设备 地址/数据分离的流水式操作 固定长/不定长猝发(burst)传送 分裂(split)事务处理协议 多路复用(非三态)互连方案 AXI 协议的主要特征: 地址/控制段与数据段分离 读数据通道和写数据通道分离 容易插入寄存器片以确保时序收敛 支持基于猝发的事务处理,只需发出起 始地址 能够发出多个没完成(outstanding) 的事务 支持乱序事务处理 通过采用字节选通支持非对齐的

2023-12-08

STM32深入浅出(新手必看)

STM32有两种编程方式,一种是用寄存器的方式,另一种是库函数的方式。对于初学者而言,可能后者较容易上手。 学从难处学,用从易处用。学习阶段,能学多深就尽量学多深,这样基础会打得比较牢。 不只是为了学STM32而学STM32,我们的目标是:学完STM32,换另一款芯片也能很快上手。基础有多牢固,换另一款芯片上手就有多快。 现在STM32有好几种库函数,也有一些辅助工具如STM32CubeMX这种工具,这种是让熟手用的,新手就先暂时先别去碰这种了,因为这些工具给我们屏蔽了太多东西了,不利于我们的学习。

2023-12-08

AM64x DDR Board Design and Layout Guidelines

AM64x DDR Board Design and Layout Guidelines The goal of this document is to describe how to make the AM64x DDR system implementation straightforward for all designers. The requirements have been distilled down to a set of layout and routing rules that allow designers to successfully implement a robust design for the topologies TI supports

2023-12-08

《你好放大器》放大器定义、分类和使用

1. 放大器定义、分类和选择使用 1.1. 放大器定义 电学中能够实现信号、功率放大的器件,称为放大器,英文为 Amplifier。 以放大器为核心,能够实现放大功能的电路组合,称为放大电路。 在很多情况下,放大器和放大电路被混淆。严格说,放大器是一个器件,device,比 如一个 3 管脚的晶体管或者一个 8 管脚的运算放大器,这都是放大器。而放大电路是这些 器件加上电阻电容、线路板或者导线焊接到一块儿的,是一个组合。 虽然我能够分清这些,但有时我也乱用。其实,大可不必为此纠结,你愿意怎么叫就 怎么叫吧。多数人分不清楚的东西,你分那么清楚干什么啊? 1.2. 放大器的全家谱 全部放大器被分为三种:晶体管放大器、运算放大器和功能放大器。 除此之外,世上还存在电子管放大器,只在特殊领域比如高级音响中使用。这个我不 懂,从我读书时,就没有见过这古老的家伙了。 晶体管 晶体管分为两类:双极型晶体管(Bipolar Junction Transistor-BJT ,分为 NPN 型、 PNP 型)、单极型晶体管(也称场效应管,Field Effect Transistor-FET)。其中场效应

2023-12-08

内存接口电气验证和调试:DDRA 和 DDR-LP4 产品技术资料

内存接口电气验证和调试:DDRA 和 DDR-LP4 产品技术资料 主要功能 测试范围:DDRA 和 DDR-LP4 内存验证测试解决方案为 支持多个内存标准(包括 DDR4 和 LPDDR4)的最全面 DDR 解决方案。用户可以通过自定义极限编程来配置自 定义数据速率以执行 JEDEC 规范范围之外的测试和验 证。 自动配置向导:轻松设置测试配置,以执行电气验证。 自动读写突发隔离:泰克提供独有的高级搜索和标记 (ASM) 功能来帮助自动隔离内存读写突发。ASM 根据 DQ 和 DQS 之间的相位关系自动标记内存读写。此功能允许 用户在长纪录长度上进行 JEDEC 测量。DDRA 也提供其 他突发隔离方法,例如使用命令信号、前置码型匹配 (LPDDR4/4X) 方法。 多队列内存测试:DDRA/DDR-LP4 中集成的可视触发允 许用户针对关心的事件,迅速设置可视触发定义,并使用 这个定义选择 DDRA/DDR-LP4 执行的测量。 反嵌:迅速选择及应用来自 DDRA/DDR-LP4 内部的反嵌 滤波器,反嵌插补器和探头效应,准确地表示信号。 灵活地选择测试:选择内存规范和速度等级,

2023-12-08

AMBA-AHB-APB-AXI协议

AMBA总线协议总览 AMBA(Advanced Microcontroller Bus Architecture)总线协议是一种面向高性能嵌入式微控制器设计的片上联接标准。 AMBA总线(截至AMBA2.0)确定了三种总线标准: AHB:(Advanced High-performance Bus) ASB:(Advanced System Bus) APB:(Advanced Peripheral Bus) 其中, AHB总线面向高性能、高时钟频率的系统模块。AHB通常作为高性能系统的主要总线,上面主要挂载处理器、片上存储器和片外具有低功耗外设宏单元接口的存储器;AHB还通过综合和自动化测试技术确保其在设计flow中的高效使用。 ASB总线面向高性能系统模块,在某些并不需要AHB那么高速度的场合,作为AHB的替代品来出现。 APB总线面向低功耗外设,其设计用于外设最小化功耗和减小外设复杂性,其可以与AHB或这ASB总线中任意一个系统总线连接 2、基于AMBA的微控制器 基于AMBA的微控制器通常包含一个高性能的系统主总线(system backbone bus

2023-12-08

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除