
大模型
文章平均质量分 57
MO2T
金融行业从事人工智能相关的岗位,现阶段主要承担图计算、知识图谱,同时也会用到部分自然语言处理的技术。依据工作、兴趣,不定期写一写总结的内容与文章。
展开
-
通过Ollama读取模型
本文介绍了如何通过Ollama调用本地模型,简化了大模型的下载和加载过程。首先,使用ollama list命令查看本地已安装的模型。接着,通过Python代码调用bge-m3模型生成文本嵌入,并展示了如何计算文本之间的余弦相似度。最后,演示了如何使用Ollama调用大模型进行对话,获取智能助手的响应。Ollama的使用避免了复杂的环境配置,使得模型调用更加便捷。原创 2025-05-14 20:00:00 · 296 阅读 · 0 评论 -
10min本地安装Qwen1.5-0.5B-Chat
在人工智能领域,大模型无疑是最炙手可热的话题。之前曾尝试使用阿里云的服务器来部署和学习ChatGLM-6B,并试图在本地电脑上进行部署,但由于内存限制,处理一个问题需要耗费几分钟的时间。在探索了多个开源的大模型后,发现Qwen1.5-0.5B-Chat可以在本地进行部署,尽管其响应速度相对较慢,大约在10秒左右,但已经是一个可行的选择。接下来,计划基于这个本地模型,进一步探索大模型的应用与发展。原创 2024-11-05 22:30:00 · 975 阅读 · 0 评论