
LLM
极客-杀生丸
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
AutoDL ollama API服务部署
127.0.0.1:11434就是远端AutoDL平台ollama API对应接口服务,注意不是本地的,然后后面root@connect.westc.gpuhub.com -p xxxx就是ssh连接参数,xxxx是平台分配的端口,每个服务器不一样,需要自己去平台上看。autoDL平台的服务器经测试是没有没有公网ip,是通过NAT进行内网穿透映射给用户的,据测试所部署的服务器应该是在docker里面,那么问题来了,如果我想把服务器内部开放的AI大模型服务器开放出去,怎么办?第二种:ssh端口复用。原创 2025-03-15 14:59:17 · 309 阅读 · 0 评论 -
langchain deepseek 实现shellTool
在langchain使用openai接口,但模型使用国内deepseek,但是要先cq,API-key才能用。原创 2025-01-01 23:58:57 · 1438 阅读 · 0 评论 -
qwen-plus API python调用
新人注册好像是有免费额度的,但是要注意大多数模型都是后付费!上图为各个模型的价格表;注意输入输出都是要需要money的,输出要比输入贵。不然用着用着一栋房没了。原创 2024-11-16 12:38:38 · 482 阅读 · 0 评论 -
大模型落地之ollama控制设备
本地环境:ollama3.2(理论上ollama3.1以上就支持tool功能,但是笔者没有试过)(PS:不足点,在输入不是控制指令的相关问题时,大概率也会调用工具,需要后续调优)原创 2024-11-10 08:15:38 · 304 阅读 · 0 评论