高性能且兼具成本效益的生成式 AI
大语言模型和视觉模型的构建、训练和部署是一个昂贵且耗时的过程,需要深厚的机器学习专业知识的支持。这两类模型非常复杂,可能包含数千亿个参数,因此在很大程度上,许多开发人员无法使用生成式 I。
为了弥补这一差距,Hugging Face 与亚马逊云科技建立合作,让开发人员更易通过访问亚马逊云科技的服务,来应用部署 Hugging Face 模型,尤其是那些生成式 AI 模型。这样做的好处是:可以更快地训练与扩展低延迟和高通量的推理任务。例如,由 Amazon Trainium 支持的Amazon Elastic Compute Cloud (Amazon EC2) Trn1 实例提供了更快的训练时间,与基于 GPU 的实例相比,可节省高达 50% 的训练成本。而由最新一代 Amazon Inferentia 芯片支持的 Amazon EC2 Inf2 实例,旨在部署最新一代大语言模型和视觉模型。相比 Inf1 实例,Inf2 实例吞吐量提升了 4 倍,延迟降低了 10 倍。Amazon SageMaker 为ML提供工具和工作流,开发人员可以通过 Amazon SageMaker 等托管服务使用 Amazon Trainium 和 Amazon Inferentia,亦或在 Amazon EC2 上自行管理。
HuggingFace与亚马逊云科技携手,使得开发人员能更方便地利用亚马逊云服务部署HuggingFace模型,特别是生成式AI模型。AmazonEC2Trn1实例加速训练并减少成本,而Inf2实例提供更高的推理吞吐量和更低延迟。AmazonSageMaker为机器学习提供工具,支持使用AmazonTrainium和AmazonInferentia芯片进行高效模型训练和部署。
473

被折叠的 条评论
为什么被折叠?



