
ic
文章平均质量分 91
Neo的作战室
这个作者很懒,什么都没留下…
展开
-
isscc2024 short course4 In-memory Computing Architectures
内存计算(In-memory Computing)架构是一种新兴的机器学习加速器方法,通过将计算能力集成到存储器中,以减少数据移动的延迟和能耗,从而提高计算效率和性能。这种方法特别适用于需要大量数据处理的深度学习任务。出现存内计算的原因IMC与数字电路的优势内存计算架构作为新兴的ML加速器方法,通过在存储器中集成计算能力,显著减少了数据移动的延迟和能耗,提升了计算效率。尽管面临可靠性、计算精度和热管理等设计挑战,但在深度学习推理和边缘计算设备中的应用前景广阔。原创 2024-05-25 15:38:48 · 1006 阅读 · 0 评论 -
isscc2024 short course3 edge and mobile environments
分两大块:ML处理器的能效问题跨层优化和异构多核的必要性边缘设备智能化:边缘系统包括可穿戴设备、植入式设备、智能扬声器、无人机、汽车等,它们需要智能处理能力来处理数据并做出决策。tinyML挑战:在资源受限的边缘设备上实现机器学习(被称为tinyML)面临诸多挑战,包括有限的内存、实时处理需求(低延迟)、以及低能耗限制。模型选择:并非所有深度神经网络(DNN)都适用于边缘设备。需要根据任务的复杂性、可用的计算资源和能耗预算来选择合适的模型。原创 2024-05-24 12:43:09 · 909 阅读 · 0 评论 -
isscc2024 short course2 Performance Compute Environment
这部分分为4部分:概览:LLMs和生成式AI探讨大语言模型(LLMs)和生成式AI的整体环境,及其对硬件加速器设计的影响。高性能AI加速器的特定考虑因素广泛的模型和使用案例支持:需要设计能支持多种模型和应用场景的加速器。系统级优化:强调从系统层面进行优化以提升整体性能。计算效率的路线图量化与稀疏性:探讨量化(Quantization)和稀疏性(Sparsity)技术如何提高计算效率。功率管理:通过优化功率管理来提高性能和能效。原创 2024-05-23 15:36:19 · 988 阅读 · 0 评论 -
isscc2024 short course1 Machine Learning Applications and Hardware Aware Optimization
这些技术的实施需要细致的硬件优化和软件算法的协同设计,以确保在不牺牲模型准确度的前提下实现性能的最大化。传统的浮点运算会被转换成使用较少比特数的整数或定点运算,例如FP32转换为INT8或更低精度的格式(如FP16, FP8)。这部分没有好说的,基础知识普及,从机器学习的定义到深度神经网络的分类,诸如CNN,卷积,激活函数等,介绍了常用的几种CNN,attention等。然而,量化也带来了效率与准确度之间的权衡,因为精度的降低可能会导致模型准确度的损失。:因每个数值占用的位数减少,降低了内存读写需求。原创 2024-05-22 10:16:54 · 561 阅读 · 0 评论