一家叫RapidFire AI的初创公司,发布了一个开源的大语言模型微调引擎,能让你的单个GPU同时并行跑上多个任务,把实验吞吐量直接干到了惊人的20倍。

这事儿是谁干的?
RapidFire AI这家公司背后站着一位关键人物,阿伦·库马尔(Arun Kumar),他是加州大学圣迭戈分校(UCSD)计算机科学与工程系的教授。库马尔教授在数据库系统、机器学习和大规模数据管理这些领域有很深的功力,而RapidFire AI引擎里最核心的那个“超并行调度”和“动态控制”技术,理论基础就来自他的研究成果。
所以,这是正儿八经的学术研究转化。库马尔教授在公司里担任联合创始人和首席技术官(CTO)。
团队里还聚集了来自亚马逊网络服务(AWS)、顶尖AI研究机构和科技巨头的工程师与科学家。
阵容挺豪华的。
RapidFire AI在今年拿到了一笔400万美元的pre-seed轮融资。领投的是.406 Ventures,一家专注于早期科技投资的知名风投;还有AI Fund,这个基金的联合创始人是大名鼎鼎的吴恩达;此外还有Osage University Partners,这家机构专门投资高校的科研成果转化项目。
它到底解决了什么要命的问题?
想让一个通用的LLM(比如LLaMA)在你的专业领域(比如金融、医疗)更好用,就得对它进行微调。微调就像是给一个通才大学生进行专业培训,让他成为专家。
你需要调整一大堆参数。比如,现在很火的低秩自适应(LoRA)技术,它的“秩”该设成多少?模型的量化方案怎么选?给模型的指令,也就是提示(prompt)结构怎么设计?还有学习率这些超参数,以及强化学习里的奖励函数怎么定?
这些配置项排列组合起来,可能性多到无法想象。
而GPU资源宝贵又有限,大家通常只能搞

最低0.47元/天 解锁文章
918

被折叠的 条评论
为什么被折叠?



