报错及解决:Kernel does not exist: 96b59d42-d81e-471c-8ef9-63a61a963a16

本文介绍了解决Jupyter Notebook在PyCharm中重启后找不到kernels的问题,分析了错误原因,并提供了清除runtime目录以修复的方案。

在pycharm的terminal终端中,首次启动jupyter notebook,成功。中断之后重启,运行cell的时候找不到kernels,系统报错如下

(topvenv)..../feature190919>jupyter notebook
[I 11:11:59.261 NotebookApp] Serving notebooks from local directory: ..../feature190919
[I 11:11:59.261 NotebookApp] The Jupyter Notebook is running at:
[I 11:11:59.261 NotebookApp] http://localhost:8888/?token=...
[I 11:11:59.262 NotebookApp] or http://127.0.0.1:8888/?token=...
[I 11:11:59.262 NotebookApp] Use Control-C to stop this server and shut down all kernels (twice to skip confirmation).
[W 11:15:08.362 NotebookApp] No session ID specified
[W 11:15:08.362 NotebookApp] 404 GET /api/kernels/96b59d42-d81e-471c-8ef9-63a61a963a16/channels (127.0.0.1): Kernel does not exist: 96b59d42-d81e-471c-8ef9-63a61a963a16
[W 11:15:08.369 NotebookApp] 404 GET /api/kernels/96b59d42-d81e-471c-8ef9-63a61a963a16/channels (127.0.0.1) 9.02ms referer=None
[I 11:21:39.267 NotebookApp] Interrupted...
[I 11:21:39.268 NotebookApp] Shutting down 0 kernels

解决方案:
找到这个runtime目录,全部清空,重启jupyter就可以了

在这里插入图片描述
下面是我对这个错误的分析和解决思路
我直接把token的参数填了密码导致了本次错误

观察该目录,一启动jupyter notebook就生成了这三个文件

在这里插入图片描述
用记事本打开nbserver-2280.json文件,会发现123456并没有进入到password字段中,而是被放入到了token字段。这个时候在pycharm中点击
在这里插入图片描述
这时候会重新提示输入密码
输入密码之后保存就对了。

<think>我们正在处理一个关于Ollama运行模型时报错的问题。用户在执行`ollama run deepseek-r1:1.5`时遇到错误信息`pull model manifest: file does not exist`。 根据错误信息,这通常意味着Ollama在尝试拉取模型时找不到对应的清单文件(manifest)。可能的原因包括: 1. 模型名称或版本号不正确:用户输入的模型名称`deepseek-r1:1.5`可能不存在于Ollama的模型库中,或者版本号错误。 2. Ollama模型库中确实没有该模型:需要确认Ollama官方是否提供了名为`deepseek-r1:1.5`的模型。 3. 网络问题:虽然错误信息直接指向文件不存在,但也可能是由于网络问题导致无法获取模型清单。 我们首先应该检查模型名称是否正确。Ollama官方提供的模型可以在https://ollama.com/library 查找。目前,Ollama官方支持的模型列表中没有`deepseek-r1:1.5`这个模型(截至2023年10月,Ollama主要支持LLaMA系列、Mistral等)。DeepSeek是一个国产模型,可能没有被Ollama官方收录。因此,用户可能需要通过其他方式安装。 如果用户想要运行DeepSeek模型,可能需要自己创建Modelfile并导入。或者,检查是否有第三方提供的DeepSeek模型。另外,注意模型名称的大小写和拼写。 因此,解决步骤可能包括: 1. 确认模型名称:访问Ollama的模型库网站,搜索`deepseek`,查看是否有该模型以及正确的版本号。如果没有,则可能需要用户自行导入。 2. 如果模型确实不存在,则考虑使用其他方式获取模型(例如,从Hugging Face下载GGUF格式的模型,然后使用Modelfile创建Ollama模型)。 3. 检查本地模型列表:使用`ollama list`查看本地已有的模型,确认是否已经存在该模型的其他版本。 另外,错误信息中提到`Tool &#39;web_search&#39; encountered a problem`,这可能是另一个问题,但用户当前的问题是关于模型清单文件不存在的,所以先解决模型拉取的问题。 因此,我们可以这样回答用户: 首先,告诉用户这个错误通常是因为模型名称不正确或者模型在Ollama库中不存在。 其次,指导用户去Ollama库中查找正确的模型名称。 然后,如果确实没有,提供替代方案(如自己创建模型)。 注意:用户的问题中引用了另一个错误(关于web_search工具),但根据上下文,用户当前的问题是关于`ollama run`命令的,所以忽略那个引用(因为它可能是另一个无关的问题)。 接下来,生成相关问题。 </think>### Ollama运行`deepseek-r1:1.5`报错`pull model manifest: file does not exist`原因分析 该错误表明Ollama无法定位模型清单文件,常见原因包括: 1. **模型名称或版本格式错误** Ollama模型名称需精确匹配官方仓库格式。`deepseek-r1:1.5`不符合DeepSeek模型的官方命名规则(应为`deepseek-coder:6.7b`或`deepseek-llm:7b`),导致清单文件无法识别[^1]。 2. **模型未被官方收录** Ollama模型库(ollama.com/library)目前未收录`deepseek-r1`系列模型。执行`ollama list`可验证本地是否存在可用模型[^1]。 3. **清单文件路径错误** Ollama默认在`~/.ollama/models/manifests/`存储清单文件。若目录缺失或权限不足会触发此错误(Linux/Mac需`chmod 755 ~/.ollama`)[^1]。 4. **网络拉取失败** 清单文件需从registry.ollama.ai下载,网络限制或DNS问题可能导致文件下载失败(尝试`curl https://registry.ollama.ai`验证连通性)[^1]。 --- ### 解决方案 ```bash # 1. 检查可用模型 ollama list # 2. 尝试官方DeepSeek模型 ollama run deepseek-coder:6.7b # 3. 重置Ollama环境 ollama rm --all rm -rf ~/.ollama ``` 若需运行自定义模型,需通过Modelfile创建: ```dockerfile FROM ~/path/to/model.bin TEMPLATE """{{ .System }}<|EOT|>{{ .Prompt }}<|EOT|>""" PARAMETER num_ctx 4096 ``` 执行`ollama create mymodel -f Modelfile`后运行`ollama run mymodel`[^1]。 ---
评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值