大模型与传统应用结合的性质
长期看是一种范式革新。算力和模型定义的边界发生变化,选择生成式AI或大模型发展方向时,会不断发现新的增长曲线,目前在不断被验证。
现阶段大模型确实带来了增量信息,但推荐过程仍在原有流程基础上局部修改或补充,未到完全改变流程,形成新生成式或类似范式。
大模型在大型企业落地的挑战及应对
数据形态多样。不同部门数据形态各异,如多模态数据场景,需围绕数据处理并结合大模型实现价值。
业务场景结合。需结合业务痛点找到高价值场景,注重应用工厂构建,助力场景落地。
效果要求高。尤其在ToB业务中,模型回答结果直接影响到客户业务,需要规避幻觉问题和不可解释性问题,可结合图技术增强模型能力。
可穿戴设备与大模型结合
交互能力受限。穿戴设备主要通过语音交互,对 RTC 能力和 TTS 能力要求高。
硬件限制和算力协同。因硬件限制,模型通常在云端或终端处理。如果考虑终端的计算能力,可能部分算力还需要在云端或边缘服务器处理,最终需要云端和端侧协同工作,同时也要考虑隐私和计算能力平衡的问题。
对算法工作的影响
生成式AI或大模型目标是帮助人类更智能,目的不是取代人类,也不会消除传统搜索中的经典问题,而是改变解决问题的手段和方式,使整体环节更高效精准。算力始终不会足够,发展过程中,算力普惠和基础性计算任务共享是关键,但算力所产生的价值才是最终目的。
算力始终不会足够,发展过程中,算力普惠和基础性计算任务共享是关键,但算力所产生的价值才是最终目的。
算力始终未足够
含义:尽管计算资源在过去几十年里取得了巨大的进步,但随着技术的不断发展和应用场景的日益复杂,对算力的需求也在不断增加。新的算法、模型和应用不断涌现,它们对算力的要求越来越高,因此算力始终处于供不应求的状态。
举例:以深度学习为例,早期的神经网络模型相对简单,对算力的要求不高。但随着模型规模的不断扩大,如从最初的几层网络发展到现在的数百层甚至上千层的Transformer模型,对算力的需求呈指数级增长。训练一个大型的Transformer模型可能需要数千个GPU运行数周时间,这在几年前是难以想象的。
算力普惠
含义:算力普惠是指让更多的个人和企业能够以较低的成本获取和使用算力资源,从而推动技术的普及和发展。这类似于电力的普及,当电力变得便宜且易于获取时,各种电气设备和工业得以快速发展。
举例:云计算服务是算力普惠的一个典型例子。通过云计算,中小企业甚至个人开发者可以按需租用强大的计算资源,无需自己购买和维护昂贵的硬件设备。例如,一个初创公司想要开发一个人工智能应用,他们可以通过云服务提供商租用GPU资源进行模型训练和部署,只需支付实际使用的费用,大大降低了开发成本和门槛。
基础性计算任务共享
含义:基础性计算任务共享是指将一些通用的、重复性的计算任务集中处理,避免每个团队或个人都重复投入大量的计算资源。这可以通过构建共享的计算平台或服务来实现,提高资源利用效率,降低成本。
举例:在机器学习领域,数据预处理是一个基础性计算任务。许多团队在进行模型训练之前都需要对数据进行清洗、归一化、特征提取等操作。如果有一个共享的数据预处理平台,各个团队可以将数据上传到该平台,平台统一进行预处理后再返回给团队,这样就可以避免每个团队都单独投入算力进行数据预处理,提高了整体效率。
算力价值才是关注重点
含义:算力的价值不仅在于其本身的强大计算能力,更在于它能够带来的实际效益和创新。因此,我们应该关注如何通过算力实现业务增长、提升用户体验、推动科学研究等,而不仅仅是算力的规模和性能。
举例:在医疗影像诊断领域,利用强大的算力可以训练高精度的深度学习模型,这些模型能够快速准确地识别医学影像中的病变,辅助医生进行诊断。这种应用不仅提高了诊断效率,还可能挽救患者的生命,这就是算力带来的巨大价值。