
ollama
文章平均质量分 57
fly-iot
没什么大不了,一直写代码。
展开
-
【ai技术】(4):在树莓派上,使用qwen0.5b大模型+chatgptweb,搭建本地大模型聊天环境,速度飞快,非常不错!
特别注意是 docker-compose-linux-armv7 版本,linux版本。安装docker 和 docker-compose 命令。原创 2024-03-23 12:40:30 · 3009 阅读 · 0 评论 -
【ai技术】(3):使用脚本对树莓派4,上面的ollama qwen 大模型测速,0.5b速度 9.6 words/s,1.8b速度 2.8 words/s,也是非常不错了。
【代码】【ai技术】(3):使用脚本对树莓派4,上面的ollama qwen 大模型测速,0.5b速度 9.6 words/s,1.8b速度 2.8 words/s,也是非常不错了。原创 2024-03-21 22:58:45 · 1390 阅读 · 0 评论 -
【ai技术】(3):树莓派4,成功安装ollama软件,内存4G,推荐使用命令行界面安装,使用raspi-config配置wifi,运行速度飞快
【代码】【ai技术】(3):树莓派4,成功安装ollama软件,内存4G,推荐使用命令行界面安装,使用raspi-config配置wifi,运行速度飞快。原创 2024-03-21 22:07:47 · 2454 阅读 · 0 评论 -
【ollama】(8):nvidia-docker在Nvidia Jetson Nano设备,对接chatgpt-web服务,配置成功,可以进行web聊天了,给ollama增加web界面
特别注意是 docker-compose-linux-armv7 版本,linux版本。然后安装docker 执行脚本即可。原创 2024-03-16 23:41:36 · 491 阅读 · 0 评论 -
【ollama】(7):使用Nvidia Jetson Nano设备,成功运行ollama,运行qwen:0.5b-chat,速度还可以,可以做创新项目了
【代码】【无标题】在jetson上安装 ollama。原创 2024-03-16 22:31:43 · 2156 阅读 · 2 评论 -
【ollama】(6):在本地使用docker-compose启动ollama镜像,对接chatgpt-web服务,配置成功,可以进行web聊天了,给ollama增加web界面
Ollama 是一个强大的框架,设计用于在 Docker 容器中部署 LLM。Ollama 的主要功能是在 Docker 容器内部署和管理 LLM 的促进者,它使该过程变得非常简单。它帮助用户快速在本地运行大模型,通过简单的安装指令,可以让用户执行一条命令就在本地运行开源大型语言模型,例如 Llama 2。使用ollama + chatgpt-web 实现本地大模型执行。然后访问:http://localhost:3002/ 即可。CPU 推荐使用 7b及以下版本。原创 2024-03-14 23:28:11 · 2106 阅读 · 0 评论 -
【ollama】(5):在本地使用docker-compose启动ollama镜像,修改模型存储位置,并下载qwen-0.5b模型,速度飞快
Ollama 是一个强大的框架,设计用于在 Docker 容器中部署 LLM。Ollama 的主要功能是在 Docker 容器内部署和管理 LLM 的促进者,它使该过程变得非常简单。它帮助用户快速在本地运行大模型,通过简单的安装指令,可以让用户执行一条命令就在本地运行开源大型语言模型,例如 Llama 2。【ollama】(5):在本地使用docker-compose启动ollama镜像,并下载qwen-0.5b模型,速度飞快。原创 2024-03-14 09:04:54 · 6979 阅读 · 0 评论 -
【ollama】(4):在autodl中安装ollama工具,配置环境变量,修改端口,使用RTX 3080 Ti显卡,测试coder代码生成大模型
Ollama 是一个强大的框架,设计用于在 Docker 容器中部署 LLM。Ollama 的主要功能是在 Docker 容器内部署和管理 LLM 的促进者,它使该过程变得非常简单。它帮助用户快速在本地运行大模型,通过简单的安装指令,可以让用户执行一条命令就在本地运行开源大型语言模型,例如 Llama 2。速度哦还是挺快的,经过一段时间的等待就可以服务启动成功了。原创 2024-03-12 22:45:35 · 7861 阅读 · 0 评论 -
【ollama】(2):在linux搭建环境,编译ollama代码,测试qwen大模型,本地运行速度飞快,本质上是对llama.cpp 项目封装
然后经过漫长的编译,就而可以生成了在 build 文件夹。里面有相关的liib库了。框架本质上还是使用了 llama.cpp 项目的。需要编译 llama.cpp 的代码,原创 2024-03-09 23:05:45 · 4195 阅读 · 2 评论 -
【ollama】(3):在linux搭建环境中,安装golang开发的ollama工具,并且完成启动下载gemma:7b和qwen:1.8b运行速度飞快,支持http接口和命令行模式
然后因为是docker 虚拟环境,需要手动启动服务: ollama serve。项目使用golang+llama.cpp 项目进行开发的。有切换的时间,模型会重新载入到显存。简化了模型的安装,非常的方便。可以发现 支持中文效果也不错。然后启动 gemma:7b。原创 2024-03-12 08:53:01 · 2740 阅读 · 0 评论