这份文档旨在让开发者在五分之内体验上 ChatGLM3-6B 模型
免安装在线尝鲜
你将有三种办法免费,无需安装的尝鲜我们的模型,他们分别是:
- 魔搭社区 · 创空间(实现对话功能)
- 使用 SwanHub 提供的在线模型体验
- 使用Python 远程访问 Huggingface 体验,以下代码是一种最简单的执行方案,可以直接用来检验模型是否正常。该代码无需下载模型,使用的为Huggingface的联网模型。
>>> from transformers import AutoTokenizer, AutoModel
>>> tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm3-6b", trust_remote_code=True)
>>> model = AutoModel.from_pretrained("THUDM/chatglm3-6b", trust_remote_code=True, device='cuda')
>>> model = model.eval()
>>> response, history = model.chat(tokenizer, "你好", history=[])
>>> print(response)
你好👋!我是人工智能助手 ChatGLM3-</