DeepSeek+web-ui+python实现AI智能体打造网站访问能力

📝 面试求职: 「面试试题小程序」 ,内容涵盖 测试基础、Linux操作系统、MySQL数据库、Web功能测试、接口测试、APPium移动端测试、Python知识、Selenium自动化测试相关、性能测试、性能测试、计算机网络知识、Jmeter、HR面试,命中率杠杠的。(大家刷起来…)

📝 职场经验干货:

软件测试工程师简历上如何编写个人信息(一周8个面试)

软件测试工程师简历上如何编写专业技能(一周8个面试)

软件测试工程师简历上如何编写项目经验(一周8个面试)

软件测试工程师简历上如何编写个人荣誉(一周8个面试)

软件测试行情分享(这些都不了解就别贸然冲了.)

软件测试面试重点,搞清楚这些轻松拿到年薪30W+

软件测试面试刷题小程序免费使用(永久使用)


基于开源框架browser-use构建,专为AI智能体打造网站访问能力,三大革命性功能:

1️⃣ 全能Web交互界面

    ✔️ 基于Gradio开发,完整继承browser-use核心功能

    ✔️ 零门槛可视化操作,与浏览器智能体实时互动

    ✔️ 支持高清屏幕录制,操作轨迹全程可追溯

2️⃣ 大模型全明星阵容

    🔥 已接入:Google/OpenAI/Azure/Anthropic/DeepSeek/Ollama

    🚀 即将支持:更多顶尖模型持续更新中

3️⃣ 私人浏览器定制

    💡 秒级接入个人常用浏览器

    💻 网站登录态永久保存(告别重复认证!)

    🌐 历史会话完整存档,智能体操作记忆永不丢失

搭建方式,下载代码后

curl -LsSf https://astral.sh/uv/install.sh | sh
uv venv --python 3.11
source .venv/bin/activate
uv pip install -r requirements.txt
playwright install  #这里有报错后,需要去安装playwright
cp .env.example .env

配置文件如下:​​​​​​​

OPENAI_ENDPOINT=https://api.openai.com/v1
OPENAI_API_KEY=
ANTHROPIC_API_KEY=
ANTHROPIC_ENDPOINT=https://api.anthropic.com
GOOGLE_API_KEY=
AZURE_OPENAI_ENDPOINT=
AZURE_OPENAI_API_KEY=
AZURE_OPENAI_API_VERSION=2025-01-01-preview
DEEPSEEK_ENDPOINT=https://api.deepseek.com
DEEPSEEK_API_KEY=
MISTRAL_API_KEY=
MISTRAL_ENDPOINT=https://api.mistral.ai/v1
OLLAMA_ENDPOINT=http://localhost:11434
ALIBABA_ENDPOINT=https://dashscope.aliyuncs.com/compatible-mode/v1
ALIBABA_API_KEY=
MOONSHOT_ENDPOINT=https://api.moonshot.cn/v1
MOONSHOT_API_KEY=
# Set to false to disable anonymized telemetry
ANONYMIZED_TELEMETRY=true
# LogLevel: Set to debug to enable verbose logging, set to result to get results only. Available: result | debug | info
BROWSER_USE_LOGGING_LEVEL=info
# Chrome settings
CHROME_PATH=
CHROME_USER_DATA=
CHROME_DEBUGGING_PORT=9222
CHROME_DEBUGGING_HOST=localhost
# Set to true to keep browser open between AI tasks
CHROME_PERSISTENT_SESSION=false
# Display settings
# Format: WIDTHxHEIGHTxDEPTH
RESOLUTION=1920x1080x24
# Width in pixels
RESOLUTION_WIDTH=1920
# Height in pixels
RESOLUTION_HEIGHT=1080
# VNC settings
VNC_PASSWORD=youvncpassword

   主要是一些api相关的key的配置,启动的时候,不配置,可以启动后配置

安装后启动配置:

python webui.py --ip 127.0.0.1 --port 7788

启动后,可以在浏览器访问

可以在不同的地方进行配置。

如果在配置文件中,没有配置,要在

LLM Configuration中进行配置

0

都是支持API格式的。

0

这 Runagent中 配置需要支持的任务,然后点击Run Agent即可。后台直接就会启动一个浏览器,执行对应的任务了。可以根据自己的需求,执行简单的自动化任务还是可以的,可以把这个改造成我们的UI自动化测试任务。

最后: 下方这份完整的软件测试视频教程已经整理上传完成,需要的朋友们可以自行领取【保证100%免费】
在这里插入图片描述​​​​
在这里插入图片描述​​​​

<think> 嗯,用户想查找用vLLM部署DeepSeek-R1-Distill-Qwen-32B的方法。我需要从提供的引用中整理出清晰的步骤流程。 引用[1]提到V100-32GB*2硬件环境,引用[2]给出了模型下载命令,引用[3]列出了模型架构对应关系,引用[4]则包含具体的vLLM服务启动命令。这些信息需要有机整合。 注意到用户特别强调要"详细步骤",考虑将部署流程拆解成环境准备、模型获取、服务启动三个主要阶段。硬件要求部分需要明确标注最低显存配置,因为32B模型对显存要求较高。 在模型下载环节,引用[2]的modelscope命令行可以直接采用,但需要补充说明可选替代方案(HuggingFace)。启动命令部分,引用[4]的复杂参数需要解释每个关键参数的作用,比如--max-model-len和--tensor-parallel-size的配置逻辑。 考虑到用户可能遇到的实际问题,准备在验证环节增加curl测试示例和常见故障处理建议。突发奇想是否要补充性能调优技巧,但根据当前引用信息,决定保持核心步骤的简洁性。 最后设计相关问题要覆盖延伸场景:单卡部署可行性、量化方案选择、WebUI集成等,这些问题在引用中都有线索可循。特别是引用[3]提到不同规模模型,引用[2]涉及Open-WebUI,可以作为问题设计的依据。 </think> 以下是使用 **vLLM 部署 DeepSeek-R1-Distill-Qwen-32B** 的详细步骤,结合引用内容整理: --- ### **部署步骤** #### **1. 环境准备** - **硬件要求**: 至少需要 **2 张 V100-32GB 显卡**(或同级 A100/A800),显存需求约 60GB+ [^1][^3]。 - **软件依赖**: ```bash # 安装 Python 3.8+ sudo apt install python3.9 pip install vllm==0.4.1 transformers==4.39.0 ``` #### **2. 下载模型** - 通过 **ModelScope** 下载(推荐): ```bash modelscope download --model=deepseek-ai/DeepSeek-R1-Distill-Qwen-32B --local_dir ./DeepSeek-R1-Distill-Qwen-32B [^2] ``` - 或通过 **HuggingFace**: ```bash git lfs install git clone https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-32B ``` #### **3. 启动 vLLM 服务** ```bash vllm serve \ --model DeepSeek-R1-Distill-Qwen-32B \ # 模型路径 --quantization awq_marlin \ # 量化方案(可选优化) --max-model-len 18432 \ # 模型最大上下文长度 --max-num-batched-tokens 512 \ # 单次批处理最大 token 数 --tensor-parallel-size 2 \ # GPU 并行数(与显卡数量一致) --gpu-memory-utilization 0.98 \ # 显存利用率 --port 8000 \ # 服务端口 --enforce-eager # 避免内核兼容性问题 [^4] ``` #### **4. 验证服务** 发送测试请求: ```bash curl http://localhost:8000/generate \ -H "Content-Type: application/json" \ -d '{"prompt": "你好,DeepSeek", "max_tokens": 50}' ``` 若返回生成文本,则部署成功。 --- ### **关键参数说明** | **参数** | **作用** | **推荐值** | |---------------------------|----------------------------------------|------------------| | `--tensor-parallel-size` | 多卡并行推理 | `2`(双卡) | | `--max-model-len` | 支持的最大上下文长度 | `18432` | | `--quantization` | 量化优化(降低显存) | `awq_marlin` | | `--gpu-memory-utilization`| 显存利用率(接近1.0需确保显存充足) | `0.98` | --- ### **常见问题解决** 1. **显存不足**: - 增加 `--quantization awq`(需模型支持 AWQ 量化) - 降低 `--max-model-len` 或 `--max-num-batched-tokens` 2. **启动报错**: - 添加 `--enforce-eager` 禁用内核融合 [^4] - 检查 CUDA 版本(需 ≥ 12.1) --- ### **性能优化建议** - **多卡负载均衡**:确保 `--tensor-parallel-size` 与 GPU 数量一致。 - **批处理调整**:根据请求量调整 `--max-num-seqs`(默认 1,可适当增加吞吐量)。 - **容器化部署**:使用 Docker 隔离环境(参考 [vLLM 官方文档](https://vllm.ai))[^3]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值