LLaMA第三周技术进展
就在三周前,某机构发布了名为LLaMA的新型开源语言模型。它甚至还不是完全开源的——仅开源了代码,权重尚未广泛发布。(至少官方渠道如此)
尽管如此,围绕它已经构建了大量项目。
这很像Stable Diffusion最初几周的情况。正如Simon Willison本周早些时候阐述的那样,与Stable Diffusion类似,LLaMA易于在自有硬件上运行,规模足够大且实用,并且开源程度足以进行修改。
以下是本周部分技术进展:
- llama.cpp – Georgi Geranov实现的LLaMA C/C++移植版本
- 斯坦福Alpaca – 经过指令微调的LLaMA变体
- 树莓派运行LLaMA – Artem Andreenko实现的树莓派部署方案
- Pixel 5运行LLaMA – Georgi Gerganov实现的手机端部署
- 单命令运行LLaMA和Alpaca – npx dalai llama一键部署工具
- alpaca.cpp – Kevin Kwok基于llama.cpp的Alpaca实现
- Cog和某平台运行LLaMA – 模型部署方案
- 即时加载LLaMA模型 – Justine Tunney的优化方案
- Rust语言实现 – setzer22的Rust版本LLaMA
- 本地训练和运行斯坦福Alpaca – 自主训练方案
- Alpaca-LoRA – Eric J. Wang提出的低秩指令微调方法
- 荷马·辛普森风格微调 – 个性化风格训练技术
- Llamero – Marcel Pociot开发的图形界面测试工具
开源语言模型显然正处于快速发展阶段。我们期待看到下周的进一步技术突破。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)
1037

被折叠的 条评论
为什么被折叠?



