- 博客(5)
- 收藏
- 关注
原创 ollama本地部署大模型+集成Pycharm
2.4 等待进度条100%,完成下载,这里可以直接和下载的大模型进行对话,接下来要完成对IDE和Ollama对接。默认是C盘,这里我们更改ollama的模型存储为D盘,先打开电脑的。2.3 任意位置打开命令行窗口,运行复制的命令,回车进行下载。创建一个名为“ollama_models”的文件夹。变量值:D:\ollama_models。如需远程访问,可设置为。变量名:OLLAMA_ORIGINS。变量名:OLLAMA_MODELS。变量名:OLLAMA_HOST。变量名:OLLAMA_PORT。
2025-03-17 10:14:08
2091
原创 Python爬取豆瓣电影TOP250(名字+年份+评分+评论人数)
print("名字:"+i.group('name')+" 年份:"+i.group('year').strip()+" 评分:"+i.group('print')+" 评价数:"+i.group('people'))# 将每次的结果都放到一个新的字典中。
2024-08-16 15:26:09
825
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅