快速入门
安装完成ollama后,在命令行窗口输入
ollama run llama3
上图表示 Ollama 正在下载
llama3
任务所需的资源文件,并显示了当前的下载进度、速度和预计剩余时间。这是 Ollama 在准备运行 llama3
任务之前所需的步骤。
上面的步骤完成后,就可以在本地进行聊天了,当然笔者亲测是可以离线使用的,如下
ollama支持的模型有哪些
https://ollama.com/library,Ollama 支持 ollama.com/library 上提供的一系列模型。