nginx-0.7.60

Changes with nginx 0.7.60                                        15 Jun 2009

   *) Feature: the "updating" parameter in "proxy_cache_use_stale" and
      "fastcgi_cache_use_stale" directives.

   *) Feature: the "keepalive_requests" directive.

   *) Bugfix: in open_file_cache and proxy/fastcgi cache interaction on
      start up.

   *) Bugfix: open_file_cache might cache open file descriptors too long.

   *) Bugfix: the "If-Modified-Since", "If-Range", etc. client request
      header lines were passed to backend while caching if no
      "proxy_set_header" directive was used with any parameters.

   *) Bugfix: the "Set-Cookie" and "P3P" response header lines were not
      hidden while caching if no "proxy_hide_header/fastcgi_

hide_header"
      directives were used with any parameters.

   *) Bugfix: the ngx_http_image_filter_module did not support GIF87a
      format.
      Thanks to Denis Ilyinyh.

   *) Bugfix: nginx could not be built modules on Solaris 10 and early;
      the bug had appeared in 0.7.56.

   *) Bugfix: XLST filter did not work in subrequests.

   *) Bugfix: in relative paths handling in nginx/Windows.

   *) Bugfix: in proxy_store, fastcgi_store, proxy_cache, and
      fastcgi_cache in nginx/Windows.
你列出的内容看起来像是一个本地部署的 AI 模型服务项目目录结构,包含模型文件、动态链接库(DLL)、可执行文件、配置脚本等。以下是对你列出的这些文件的简要分类与说明: --- ### 📁 目录结构说明: 1. **`libs/`** - 通常用于存放项目依赖的第三方库文件(如 `.dll`、`.so` 等)。 2. **`models/`** - 存放机器学习模型文件,如 LLaMA、Gemma、MiniCPM-V 等的 GGUF 模型文件。 3. **`nginx/`** - Nginx 配置目录,用于反向代理、负载均衡、静态资源服务等。 4. **`python/`** - Python 脚本目录,可能包含服务端逻辑、模型调用接口等。 5. **`temp/`** - 临时文件目录,用于缓存、中间文件等。 6. **`templates/`** - HTML 模板文件,用于 Web 前端页面渲染。 7. **`uploads/`** - 用户上传文件的存储目录,例如 PDF、TXT 等文档。 --- ### 📄 核心文件说明: #### 🧠 模型相关文件: - `llama.dll`:LLaMA 模型的核心推理库。 - `ggml-*.dll`:GGML 库的不同 CPU 架构支持版本(如 SSE42、SkylakeX、Alder Lake 等)。 - `llama-cli.exe`:命令行接口,用于本地运行 LLaMA 模型。 - `llama-server.exe`:启动本地模型服务的可执行文件。 - `llama-llava-cli.exe` / `llama-minicpmv-cli.exe`:多模态模型接口,支持图像理解。 #### 📜 配置与测试文件: - `chat_server.py`:Python 编写的聊天服务器逻辑。 - `TEST_BACKEND.py`:测试用的后端接口。 - `test_document.txt` / `test_pdf.pdf`:测试用的文档文件。 - `run_server.bat`:一键启动服务的批处理脚本。 - `test.bat`:测试脚本,可能用于调用模型或接口。 #### 🧰 工具类可执行文件: - `llama-quantize.exe`:量化模型工具,用于减小模型体积。 - `llama-tokenize.exe`:分词器工具,用于查看 token 映射。 - `llama-perplexity.exe`:计算模型困惑度,评估模型质量。 - `llama-gguf-split.exe`:分割 GGUF 模型文件,便于部署。 #### 🔧 依赖库文件: - `libcurl-x64.dll`:用于 HTTP 请求。 - `libomp140.x86_64.dll`:OpenMP 并行计算库。 - `ggml-rpc.dll` / `rpc-server.exe`:用于远程过程调用(RPC)的服务组件。 --- ### 📄 LICENSE 文件说明: - `LICENSE-curl` / `LICENSE-jsonhpp` / `LICENSE-httplib` / `LICENSE-linenoise` - 各个开源库的许可证文件,用于声明第三方库的使用授权。 --- ### 🧪 示例:启动本地模型服务 你可以使用 `run_server.bat` 启动服务,内容可能如下: ```bat @echo off echo Starting LLaMA Server... llama-server.exe -m models/llama3-8b.gguf -c 2048 ``` 这段脚本启动了 `llama-server.exe`,加载 `llama3-8b.gguf` 模型,最大上下文长度为 2048 tokens。 --- ### ✅ 示例:使用 Python 调用本地模型服务 ```python import requests url = "http://localhost:8080/completion" data = { "prompt": "你好,请介绍一下你自己。", "temperature": 0.7 } response = requests.post(url, json=data) print(response.json()["content"]) ``` 这段代码通过 HTTP 请求调用本地运行的 LLaMA 模型服务,并获取回复。 --- ###
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值