大模型看书,从来没有这么快过。
国内大模型创业公司,正在技术前沿创造新的记录。
10 月 30 日,百川智能正式发布 Baichuan2-192K 长窗口大模型,将大语言模型(LLM)上下文窗口的长度一举提升到了 192K token。
这相当于让大模型一次处理约 35 万个汉字,长度达到了 GPT-4(32K token,约 2.5 万字)的 14 倍,Claude 2.0(100K token,约 8 万字) 的 4.4 倍。
换句话说,Baichuan2-192K 可以一次性读完一本《三体 2》,是全球处理上下文窗口长度最长的大模型。此外,它也在文本生成质量、上下文理解、问答能力等多个维度的评测中显著领先对手。
能够一次理解超长文本的大模型,究竟能做哪些事?百川智能进行了一番简单演示。
上传一整部《三体 2:黑暗森林》的 PDF 文件,百川大模型统计出来是 30 万字。接下来,如果你询问有关这本小说里的任何问题,大模型都可以给出简洁准确的答案。

有时候我们寻求 AI 的帮助,并不是希望他们发挥想象力,而是要提取准确信息。有了 Baichuan2-192K,我们可以快速解读几十页,甚至几百页的合同文件,让 AI 快速给出简明摘要,四舍五入就是量子速读了:

国内创业公司百川智能发布Baichuan2-192K大模型,刷新上下文窗口长度纪录,提升了文本理解和生成能力,展示了在长文本处理和应用领域的技术领先。
最低0.47元/天 解锁文章
1554

被折叠的 条评论
为什么被折叠?



