LLM大语言模型(三):使用ChatGLM3-6B的函数调用功能前先学会Python的装饰器

目录

ChatGLM3-6B的函数调用模式示例

本地启动ChatGLM3-6B工具模式

如何在ChatGLM3-6B里新增一个自定义函数呢?

get_weather基于Python的装饰器实现

函数注解@register_tool

现在我们来自定义一个kuakuawo()函数


ChatGLM3-6B的函数调用模式示例

ChatGLM3-6B目前有三种使用模式:

  1. 对话模式
  2. 工具模式(也就是本文要介绍的函数调用)
  3. 代码解释器模式

函数调用模式示例:

函数调用模式介绍:

  • 首先进入Tool工具模式
  • 询问“北京今天的天气”
  • 大模型自动识别出,要调用get_weather工具(函数),且参数是“北京”
  • 大模型接着调用get_weather,入参=北京,获取到函数执行的结果
  • <|Observation|>展示的是函数的执行结果
  • 紧接着大模型根据上述内容,继续生成回答“根据APIxxxxxxxxxxxx”

本地启动ChatGLM3-6B工具模式

进入conda对应的环境

conda activate chatglm

进入composite_demo目录

cd composite_demo

修改为使用本地模型,参考LLM大语言模型(一):ChatGLM3-6B本地部署-优快云博客

# 修改client.py
MODEL_PATH = os.environ.get('MODEL_PATH', '====你的本地模型的绝对路径====')

启动模型

# 在composite_demo目录下
streamlit run main.py

然后在页面选择Tool模式即可。

如何在ChatGLM3-6B里新增一个自定义函数呢?

首先我们看下get_weather函数是如何实现的。

在composite_demo目录下有个tool_registry.py文件,里面包含两个已经定义好的函数:

  • random_number_generator

  • get_weather

其中get_weather就是上文对话中用到的函数。

get_weather基于Python的装饰器实现

@register_tool
def get_weather(
    city_name: Annotated[str, 'The name of the city to be queried', True],
) -> str:
    """
    Get the current weather for `city_name`
    """

    if not isinstance(city_name, str):
        raise TypeError("City name must be a string")

    key_selection = {
        "current_condition": ["temp_C", "FeelsLikeC", "humidity", "weatherDesc",  "observation_time"],
    }
    import requests
    try:
        resp = requests.get(f"https://wttr.in/{city_name}?format=j1")
        resp.raise_for_status()
        resp = resp.json()
        ret = {k: {_v: resp[k][0][_v] for _v in v} for k, v in key_selection.items()}
    except:
        import traceback
        ret = "Error encountered while fetching weather data!\n" + traceback.format_exc() 

    return str(ret)

get_weather功能很简洁,最终是从

https://wttr.in/{city_name}?format=j1

获取天气信息(https://wttr.in/%E5%8C%97%E4%BA%AC?format=j1

函数注解@register_tool

register_tool的功能是将自定义的函数,转化为大模型需要的格式。 

def register_tool(func: callable):
    tool_name = func.__name__
    tool_description = inspect.getdoc(func).strip()
    python_params = inspect.signature(func).parameters
    tool_params = []

    # 解析param的Annotation

    for name, param in python_params.items():
        annotation = param.annotation
        if annotation is inspect.Parameter.empty:
            raise TypeError(f"Parameter `{name}` missing type annotation")
        if get_origin(annotation) != Annotated:
            raise TypeError(f"Annotation type for `{name}` must be typing.Annotated")
        
        typ, (description, required) = annotation.__origin__, annotation.__metadata__
        typ: str = str(typ) if isinstance(typ, GenericAlias) else typ.__name__
        if not isinstance(description, str):
            raise TypeError(f"Description for `{name}` must be a string")
        if not isinstance(required, bool):
            raise TypeError(f"Required for `{name}` must be a bool")

        tool_params.append({
            "name": name,
            "description": description,
            "type": typ,
            "required": required
        })
    tool_def = {
        "name": tool_name,
        "description": tool_description,
        "params": tool_params
    }

    print("[registered tool] " + pformat(tool_def))
    _TOOL_HOOKS[tool_name] = func
    _TOOL_DESCRIPTIONS[tool_name] = tool_def

    return func

register_tool函数实现了装饰器,它将自定义的函数转换为tool_def dict,其中自动生成了name,description,params等信息

{
    'name': 'get_weather', 
    'description': 'Get the current weather for `city_name`', 
    'params': [
        {
            'name': 'city_name', 
            'description': 'The name of the city to be queried', 
            'type': 'str', 
            'required': True
        }
    ]
}

最终通过get_tools()将自定义的函数都暴露出去。

在上述demo中,其实是demo_tool.py里调用了get_tools()获取到所有的自定义函数。


def get_tools() -> dict:
    return copy.deepcopy(_TOOL_DESCRIPTIONS)

现在我们来自定义一个kuakuawo()函数


@register_tool
def kuakuawo(
    name: Annotated[str, 'The name of the user', True], 
) -> str:
    """
    Generates a awesome praise for user
    """

    return f"{name} 你真的太棒了"

看看效果

 参考:

  1. LLM大语言模型(一):ChatGLM3-6B本地部署-优快云博客
  2. LLM大语言模型(二):Streamlit 无需前端经验也能画web页面-优快云博客
<think>好的,用户想在Langchain中集成chatGLM3模型并在Autodl环境中运行。首,我需要回忆一下Langchain的基本结构。Langchain是一个用于构建基于语言模型的应用程序的框架,支持多种模型集成。而chatGLM3是智谱AI开发的开源对话模型,可能需要通过Hugging Face Transformers库来加载。 接下来,Autodl环境是一个云服务平台,用户通常会在上面申请GPU实例来运行深度学习任务。所以,用户需要在Autodl中配置好Python环境,安装必要的库,比如transformers、torch、langchain等。可能需要确保CUDA和cuDNN的版本兼容性,避免出现驱动问题。 然后,集成chatGLM3到Langchain,可能需要自定义一个LLM类,继承Langchain的BaseLLM,并实现_call方法,调用chatGLM3的生成函数。这里需要参考Langchain的文档,看看如何正确创建自定义LLM。可能需要使用AutoModel和AutoTokenizer来加载模型,并设置好生成参数如temperature、max_length等。 另外,还要考虑模型文件的存放位置。如果chatGLM3的模型文件较大,用户可能需要提下载到Autodl的持久化存储中,或者在代码中指定从Hugging Face模型库加载。同时,要注意Autodl实例的存储空间是否足够,避免中途出现存储不足的错误。 还需要处理可能的依赖冲突,比如不同版本的transformer库可能导致接口变化。需要确认chatGLM3所需的transformers版本,并在Autodl环境中安装对应版本。如果用户提供的示例代码中有导入错误,可能需要调整导入语句,例如从langchain.llms.base导入BaseLLM是否正确。 此外,运行示例代码后,用户可能需要测试模型是否能正常生成响应。可以编写一个简单的测试脚本,输入提示文本,查看输出是否符合预期。如果遇到CUDA内存不足的问题,可能需要调整batch_size或max_length参数,或者申请更高显存的GPU实例。 最后,用户可能对如何优化模型加载速度或减少内存占用感兴趣。可以建议使用量化技术,比如8位或4位量化,来减小模型大小和内存消耗。同时,使用缓存机制或模型并行也可能有助于提升性能。 总结步骤应该是:准备Autodl环境,安装依赖,下载模型,创建自定义LLM类,集成到Langchain,编写测试代码,处理可能出现的错误。需要确保每一步都有明确的说明,帮助用户顺利实现集成。</think>以下是在LangChain中集成ChatGLM3模型并在AutoDL环境运行的完整步骤: ### 一、AutoDL环境准备 1. 创建实例:选择**GPU为RTX 3090/4090**的镜像,预装PyTorch 2.0+和CUDA 11.8[^1] 2. 挂载模型存储: ```bash cd /root/autodl-tmp git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git ``` ### 二、依赖安装 ```bash pip install langchain==0.0.340 pip install transformers>=4.37.0 pip install cpm_kernels # 需在ChatGLM3安装 ``` ### 、创建自定义LLM类 ```python from langchain.llms.base import LLM from transformers import AutoModel, AutoTokenizer class ChatGLM3(LLM): def __init__(self): model_path = "/root/autodl-tmp/chatglm3-6b" self.tokenizer = AutoTokenizer.from_pretrained( model_path, trust_remote_code=True) self.model = AutoModel.from_pretrained( model_path, trust_remote_code=True).half().cuda() def _call(self, prompt, stop=None): response, _ = self.model.chat( self.tokenizer, prompt, temperature=0.01, history=[] ) return response ``` ### 四、LangChain集成使用 ```python from langchain.chains import LLMChain from langchain.prompts import PromptTemplate llm = ChatGLM3() template = """基于以下上下文回答问题: {context} 问题:{question}""" prompt = PromptTemplate( template=template, input_variables=["context", "question"] ) chain = LLMChain(llm=llm, prompt=prompt) print(chain.run({ "context": "LangChain是用于构建LLM应用的开发框架", "question": "LangChain的主要功能是什么?" })) ``` ### 五、内存优化技巧 1. **4-bit量化**(显存占用从13GB降至6GB): ```python self.model = AutoModel.from_pretrained( model_path, trust_remote_code=True, load_in_4bit=True # 添加量化参数 ) ``` 2. 使用FlashAttention加速: ```bash pip install flash-attn --no-build-isolation ```
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Hugo Lei

赏你了,我的一点心意

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值