不少同学用了很长时间的 AI 大模型了,但却从未完成过一次大模型的 API 调用。
其实 API 调用非常简单,你可以联网调用 API,也可以将大模型下载到本地电脑上来进行调用。
区别在于联网的话很多时候需要消耗 token 数。
那么本节,就以 ChatGLM 模型为例,带大家完成一次大模型的 API 调用。
ChatGLM 是由智谱 AI 联合清华大学共同研发的一系列先进大型预训练语言模型,专注于提升对话生成任务的性能。
目前,该系列中最为出色的模型是 ChatGLM3-6B("6B"代表整个模型有 60 亿参数,B = Bilion,代表十亿规模的参数)。
这一模型不仅支持中英文双语,而且基于先进的 General Language Model (GLM) 架构设计。
ChatGLM在研发过程中采用了与 GPT 系列相似的技术路线——
该模型经过了约 1T token的中英双语1:1训练,并融入了包括监督微调、反馈自助、人类反馈强化学习等先进技术,以生成更符合人类偏好的回答。
如何使用 Python 来调用 ChatGLM
目前的所有开源大模型的使用方法都非常简单,它们都已经适配了HuggingFace 的 transfomers 库。
因此,我们只要修改和下载权重就可以使用了。
首先,通过以下命令安装依赖库:
pip3 install transformers torch
然后,替换 HuggingFace 国内源,最后,使用下面的代码即可直接体验。
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm3-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm3-6b", trust_remote_code=True, device='cuda')
model = model.eval()
response, history = model.chat(tokenizer, "你好", history=[])
print(response)
#你好👋!我是人工智能助手ChatGLM3 - 6
注意: 由于模型参数较大,初次运行以上代码,会进行模型权重的下载。
时间会较长,耐心等待即可,如中途下载失败,可重新执行以上代码进行下载(会续传)。
另外,上述代码配置的是模型在 GPU 上进行推理的场景。
如果你的设备不支持 GPU计算,可以将 device=‘cuda’ 设置为 device='cpu’来运行,只不过这样的话运行速度会变慢。
在 ChatGLM 源码仓库中有更多的部署方法,有网页部署、也有针对 Intel CPU 的优化部署。
你也可以直接去官网体验官方已经在网页上部署好的 ChatGLM 模型,体验其中文对话能力。
官方网址:https://chatglm.cn/?lang=zh。
如果本文对你有帮助,欢迎点赞一下呀~
如何学习AI大模型?
作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】
一、全套AGI大模型学习路线
AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

二、640套AI大模型报告合集
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

三、AI大模型经典PDF籍
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

四、AI大模型商业化落地方案

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

被折叠的 条评论
为什么被折叠?



