明晚直播|2GPU+2CPU微调万亿参数超大模型,带你上手开源项目KTransformers

部署运行你感兴趣的模型镜像
视点 发自 凹非寺
量子位|公众号 QbitAI

2GPU+2CPU就可以在本地微调自己的DeepSeek 671B / Kimi K2 1TB超大模型了。

这就是前两天量子位介绍的明星开源项目KTransformers,吸引了很多伙伴的关注。毕竟谁不想在本地跑个自己的猫娘呢(误)。

KTransformers如何实现更低成本的LoRA微调?与其他技术方案有什么不同?低成本高性能的微调方案对于大模型落地意味着什么?

于是,我们邀请到了KTransformers项目的两位重要成员——

  • 章明星,清华大学计算机系副教授,KTransformers项目主要指导老师

  • 李沛霖,趋境科技KTransformers项目核心参与者

带大家上手实践如何用KTransformers+LLaMA-Factory在本地微调超大模型,也一起聊聊项目背景与最新进展。

明晚19点,欢迎预约直播,一起来实操交流 👇

直播嘉宾

章明星
清华大学计算机系副教授

章明星教授是KTransformers项目主要指导老师。其主要研究方向为计算机系统机构领域,相关成果在包括OSDI、SOSP、ASPLOS、HPCA、FSE、VLDB、ATC、EuroSys等国际顶级会议和期刊上发表论文二十余篇。曾获ACM SIGSOFT 杰出论文奖,IEEE TCSC、ACM SIGOPS等组织颁发的优秀博士毕业论文奖。获得国家自然科学基金青年科学基金及博士后基金一等项目资助。博士毕业后进入清华大学与深信服联合培养的博士后计划,负责创新业务孵化,担任深信服首席算法技术专家,后任职创新研究院院长。

李沛霖
趋境科技KTransformers项目核心参与者

李沛霖,目前就读于西北工业大学计算机学院,即将进入清华大学计算机系攻读博士学位。参与了趋境科技引擎开发,是KTransformers项目核心参与者,微调功能核心技术开发人员。曾获国家奖学金,院长奖学金(全院所有年级仅1人),多次获得国家级竞赛奖项。

核心话题

  • 认识KTransformers项目:如何实现更低成本的LoRA微调?

  • 手把手实操KTransformers

  • 聊聊KTransformers背后的技术与思考

参与直播

明晚19点,欢迎点击链接,预约直播 👇

关于「365行AI落地方案」

AI技术的落地应用不仅限于科技领域,它已经渗透到各行各业,成为推动产业升级的重要力量。因此,“365行AI落地方案”主题策划应运而生,我们寻找各行各业中成功应用AI技术的案例和方案,分享给更多的产业内人士。

图片

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值