Orca 虎鲸1号余波未平 ,虎鲸2号一波又起

Orca2作为Orca系列的最新进展,引入了模仿学习来弥补小模型在涌现能力上的不足。通过Explanation Tuning,它避免了指令精调的潜在错误,强调学习大模型的思考过程而非仅关注结果。此外,Cautious Reasoner使得Orca2成为更逻辑严谨的LLM。Prompt Erasing这一策略提升了模型的训练难度和鲁棒性,使其在没有system instruction的情况下也能推断出生成响应的前置条件。

 还是讲虎鲸,不过是迭代了

Image

     1 2 3上链接......

     2311.11045.pdf (arxiv.org)

     

Image

       11月18号新出的论文,不同于Orca1,Orca2的论文著作这里有中国兄弟介入了,感觉Orca1好像都是3哥,3哥水论文的速度是真的快...

       先说一下我对这篇论文的感受,其实没多有特别大的变革,比起Llama到Llama2的变更还是小的(光是GQA这一项就挺颠覆的)

        文章开头照例给他们团队做了一个广告,众所周知的刷榜环节

Image

        用一个常见的问题来直观感受一下几个模型回答问题的区别

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值