- 博客(2)
- 收藏
- 关注
原创 windows安装并编译llama.cpp步骤,亲测可用
需手动新建模型下载目录C:\Users\Administrator\AppData\Local\llama.cpp。-DGGML_CUDA=ON:启用 CUDA 支持(需已安装 CUDA 工具包)。-DLLAMA_CURL=ON:启用 CURL 支持(需已安装 curl)-B build:指定构建目录为 ./build。六、进入build\bin\Release目录开始使用llama。三、下载CUDA toolkits(需要GPU加速可选)四、安装 curl(需要联网下载模型可选)
2025-05-22 15:23:26
1868
1
原创 Linux命令head -n +10 head -n 10 head -n -10 tail -n +10 tail -n 10和tail -n -10的区别
Linux命令head -n +10 head -n 10 head -n -10 tail -n+10 tail -n10和tail -n-10的区别
2023-10-08 16:33:59
660
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅