- 博客(6)
- 收藏
- 关注
原创 动手学习大模型开发2-基于 LangChain 自定义 LLM
LangChain 支持多种大模型,内置了 OpenAI、LLAMA 等大模型的调用接口。但是,LangChain 并没有内置所有大模型,我们继续前面的文心千帆大模型,则需自定义。是 LangChain 的核心库,但 新版 LangChain 把社区支持的 LLM(如文心、智谱等)拆分到了。(用于数据校验)等依赖。如果你的环境中没有这些库,可以一起安装,我在经过前面的步骤发现已经安装过了。:核心框架,不包含具体 LLM 实现。(用于发送 HTTP 请求)、:社区支持的 LLM(比如。
2025-03-03 18:39:15
375
原创 动手学习大模型开发1-尝试调用免费API实现简单对话逻辑
3.执行以下代码,在get_access_token函数的url中分别填写上面获得的API的 [名字] 和 [密码] ,然后在主函数的url中选择你要用的模型,实例中是免费的ernie-speed-128k模型。(代码来自b站up主,现账号已注销)2.进入创建后,简单填写一下要实现的功能并取个名字,下面的模型全选,点击确定,就可以返回到上一张图片得到蓝色框中的API的用户和密码。用大模型实现简单对话,调用的是文心一言的免费大模型API。),点击应用接入,点击去创建。4.执行代码,实现对话。
2025-02-28 19:05:55
1706
原创 vscode在服务器上用tmux跑代码
接着上文,由于电脑中安装过torch的相关文件,所以连接远程服务器之后再重新配置环境时,直接按照原来的版本即可,比原来要简单很多,直接使用conda指令:新建虚拟环境:激活虚拟环境:下载包:或者按需要逐条下载:2.使用 tmux 运行程序实践证明,之前运行的代码或者开源获取的代码和模型下载到本地后,直接拖到远程连接的界面中即可运行。使用 tmux 在远程服务器上运行代码,可以保持会话持续运行,即使断开 SSH 连接,程序也不会停止,步骤如下:登录远程服务器后,启动一个新的 tmu
2024-12-11 19:02:28
1085
原创 VS Code连接实验室的远程服务器后,如何使用Anaconda管理环境,并开始第一次深度学习代码运行?(适合在自己电脑上跑过深度学习代码,如今换到远程服务器上的)
首先,根据你的操作系统是32位还是64位选择对应的版本到,但是官网下载速度慢,建议到,我这里下载的是Anaconda3-2023.03-Linux-x86_64版本下载好后,把Anaconda3-2023.03-Linux-x86_64.sh文件直接拖到服务器的主目录下的anaconda3文件夹中(提前在用户主目录下新建anaconda3文件夹,比如我的用户为hxm22,就在hxm22下先新建)。
2024-12-07 22:03:25
952
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅