清华系ChatGPT发布!唐杰团队打造,专对中文优化,还能把握最新新闻动态

丰色 发自 凹非寺
量子位 | 公众号 QbitAI

终于,清华大学唐杰团队也出手了。

就在GPT4发布的同一天,唐教授在微博宣布:

基于千亿参数大模型的对话机器人ChatGLM,现在开启邀请制内测。

f6f8bf26a8390fb60d6c1f048ab6f093.jpeg

据介绍,ChatGLM专门针对中文进行了优化,可以说是国人友好~

看起来,写博客提纲、创作剧本、解数学题、写代码,甚至是扮演高冷御姐,它都拿捏的死死的:

dcccff32dcfa20731ede2d3f9574c12c.png
△ 写介绍ChatGLM的博客提纲


b18aec692b0e1052e299479ed1c62fab.png
△ Cosplay聊天扮演高冷御姐

量子位有幸拿到了内测名额,将在后文进行一波实测。

与此同时,还有另一个消息宣布:

唐杰团队为了与社区一起更好地推动大模型技术的发展,同时开源了包含62亿参数的双语ChatGLM-6B模型。

它最大的特点是在普通电脑上就能进行部署,有一块2080Ti就行。

一起来看看。

能写文言文致辞,知道何恺明最新动态,但……

先看ChatGLM,它是唐杰团队大模型家族时隔半年诞生的一位新成员。

alpha内测版名称叫QAGLM(全称qa-glm-v0.7)。

b51154fad596c4678183aaf5ed9c8c6b.png

浅试一下效果。

首先,我们让它说了一下它和ChatGPT的区别。

1dd82a5436b441b5ba3cd63bc64954f5.png

它点出了自己的研发机构,和擅长中文的特点。

那么,就让它用文言文写个致谢词叭。

fe4447109c943d0b5a7add52ea7104af.png

咋说,虽然多了一个“余”、出现了一个莫名其妙的繁体字,但读着还可以,用的排比句增强了气势。

接着,我们把前几日硅谷暴雷的文章开头丢给它,让它起个标题。

感觉还不错,起码抓住了几个关键信息。

28cfa693b103294c081463b656218e2a.png

不幸的是,论文挑战没有通过,我们把GLM-130B的链接扔给它,让它简要概括一下主题时,它说的根本不是这篇。

跟ChatGPT胡邹参考文献的操作简直有得一拼(手动狗头)。

e8a57c7d9d01d3673847e7dfca8aae86.png

接下来,考考它的数学能力吧。

这道小学应用题没问题:

6d928cbf8126a1aa5e0bedf68fb28051.png

不过鸡兔同笼,就难倒它了,最后居然还算出了负数==

947f59fa64bd2edf448f8dbe0617a382.png

编程方面,也可以解决简单的算法题。

归纳信息能力呢?我们给了一段英文需求,不难:

22491f78d55427dd8466d5cb8b71c649.png

结果正确:

012b90997e18096b872d3c67a3049db3.png

需要注意的是,目前ChatGLM每轮对话最多只可以进行5个来回,每次最多输入1000字。

它对新信息的掌握度不错,知道推特现在的CEO是马斯克,也知道何恺明3月10日回归学界的事情,但还没发现GPT-4已经发布了

0fcc42c9470dccc4df78616ad0d2d74d.png

以及,目前响应速度还是非常快的,无论什么问题,回答得对不对,基本几秒内就能给出答案。

最后,量子位也让它来了个cosplay,看看哄女朋友的本事如何:

587567b5034fa5ac7895d2bae3b043c3.png

emmm,虽然有点板正,但听完这段话“我”的气确实消了。

那么,以上就是我们的测试结果,各位觉得如何?

基于1300亿参数的基座模型打造

据官方介绍,ChatGLM参考了ChatGPT的设计思路,在千亿基座模型GLM-130B中注入了代码预训练,通过有监督微调等技术来实现人类意图对齐(就是让机器的回答符合人类价值观、人类期望)。

8a5b5ff3bad77676bed9cd648dd6b90e.png

这个GLM-130B的来头值得说道一番。

它是由清华大学知识工程实验室(KEG)与智谱AI共同研发的一个大规模中英文预训练语言模型,参数1300亿,去年8月正式对外发布。

不同于BERT、GPT-3以及T5的架构,GLM-130B是一个包含多目标函数的自回归预训练模型。

它的优势包括:

5c76ee42a962ad24b2e8c1999fd0c5d9.png

在Stanford报告的30个世界主流大模型评测中,GLM-130B也成为了亚洲唯一入选的模型。

且获得了不错的成绩:

比如在准确性和恶意性指标上与GPT-3 175B (davinci) 接近或持平,鲁棒性和校准误差在所有千亿规模的基座大模型(作为公平对比,只对比无指令提示微调模型)中也可圈可点。

58e275821004f61ecfdfa17b3ae60235.png

而就在CCF最近的一场会议上,有现场观众提问:ChatGPT为什么没有诞生在中国?是我们没有关注这件事吗?

嘉宾就把GLM-130B搬了出来(它也入选了ICLR’23)。

现在,GLM-130B也终于被派上了“大用场”。

关于内测,唐杰团队表示,后续会逐步扩大范围,有兴趣的朋友可以再等一等。

60亿参数的缩小版同时开源

除了这个聊天机器人ChatGLM,唐杰团队这次也把GLM-130B的“缩小版”ChatGLM-6B开源了出来。

b3c5414794a89af5613d45de239bd1f0.png
△ GitHub已经揽获近2k标星

ChatGLM-6B使用与ChatGLM相同的技术,初具中文问答和对话功能。

特点如下:

6821c95fedcfae1b92b877d8ebe33a91.png

当然,缺点就是容量只有60亿,其模型记忆和语言能力较弱,不擅长逻辑类问题(如数学、编程),以及多轮对话可能会出现上下文丢失和理解错误的情况。

但它主打的就是一个低门槛,在单张2080Ti上就能进行推理使用,硬件需求不高。

因此,只要有兴趣都可以下载下来试试,进行研究和(非商用的)应用开发都可以。

传送门:
https://chatglm.cn/
https://github.com/THUDM/ChatGLM-6B

参考链接:
[1]https://weibo.com/2126427211/MxlsQ6w4A#repost
[2]https://chatglm.cn/blog?continueFlag=d70d7590143c950d12ac7283214d879d

3月29日「中国AIGC产业峰会」

抢票开启

「中国AIGC产业峰会」定档3月29日,线下会场抢票开启!

百度袁佛玉、智源林咏华、澜舟科技周明、小冰徐元春、科大讯飞高建清、启元世界袁泉、云舶科技梅嵩、特赞王喆、微软关玮雅、源码资本黄云刚、元语智能朱雷、无界Ai马千里、Tiamat青柑、峰瑞资本陈石等来自产学研界大咖嘉宾,还有重磅嘉宾陆续确认中。

扫描下方二维码,报名峰会线下会场啦~

73b0a8c87675110c4e8c30dd57a63775.png

点这里👇关注我,记得标星哦~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值